Google e la tutela dei minori tra Regolamento privacy europeo e parental control

Durante l’EMEA Child Safety Summit, tenutosi a Dublino il 18 e 19 aprile, si è parlato molto di Google e YouTube in merito agli strumenti di tutela per i minori, tanto che gli aggiornamenti attesi con più curiosità sono stati pubblicati proprio a margine del Summit, con riferimento al Regolamento privacy europeo (GDPR) e a Family Link.

Nel precedente articolo (https://www.ictsecuritymagazine.com/articoli/minori-e-social-network-alle-soglie-del-regolamento-privacy-europeo-i-nuovi-strumenti-di-facebook-per-la-verifica-del-consenso-genitoriale/) si è parlato di come Facebook abbia implementato il GDPR con riferimento all’età del consenso dei minori e all’intervento genitoriale. Per integrare quanto detto – e fugare i tanti dubbi emersi nel corso delle precedenti settimane – è bene specificare che WhatsApp, pur essendo di proprietà di Facebook, ha impostato in tutta Europa a 16 anni l’età minima per utilizzare WhatsApp, a prescindere da quale età minima indicherà poi la legge nazionale.

Google, invece, sulla linea di Facebook e Instagram, ha introdotto numerose innovazioni, con riferimento al controllo dei minori online, non solo su YouTube.

C’è da dire, infatti, che come per Facebook, anche il piano di implementazione del GDPR da parte di Google si affianca a un maggiore impegno per una migliore trasparenza dei dati sull’applicazione delle Linee guida della community di YouTube (consultabili qui: https://www.youtube.com/intl/it/yt/about/policies/#community-guidelines), incluso l’aspetto relativo alla sicurezza dei bambini. In effetti, il 24 aprile è stato pubblicato il primo Rapporto sull’applicazione delle norme sulla community di YouTube (https://transparencyreport.google.com/youtube-policy/overview), che include dati mai condivisi prima sull’applicazione delle norme relative ai contenuti della piattaforma, mostrando in che modo la tecnologia e le persone vengano impiegate per dare attuazione alle regole di Big G in modo responsabile e su vasta scala. Per offrire un costante impegno, il rapporto verrà pubblicato trimestralmente e, entro la fine dell’anno, verrà implementato con ulteriori dati sui commenti, sulla velocità di rimozione e sui motivi/criteri di rimozione.

Con riferimento ai contenuti, il dato interessante del primo Rapporto (relativo al periodo ottobre-dicembre 2017) è che dei 9.321.943 di segnalazioni, pur rimanendo imbattibile la percentuale di contenuti segnalati dagli utenti perché giudicati a sfondo sessuale (30,1%), ben il 5,2% è stato segnalato perché relativo all’abuso su minore. Trattandosi di segnalazioni umane, ovviamente è ammissibile un margine di scollamento tra violazione reale e percezione del contenuto – in effetti, i video poi effettivamente rimossi a seguito della segnalazione degli utenti sono stati “solo” 1.598.308. Ma per questa ragione, YouTube ha sviluppato sistemi automatici che aiutano a rilevare contenuti che potrebbero violare le norme della comunità. Questi sistemi automatizzati si concentrano sulle forme più eclatanti di abuso, come lo sfruttamento dei minori o l’estremismo violento. Una volta che il contenuto potenzialmente problematico viene contrassegnato dai sistemi automatici, entra poi in gioco la revisione umana per verificare che il video vìoli effettivamente le policy di YouTube – il che ha portato alla rimozione di altri 6.685.731 video. La parte interessante di questo strumento è che il contenuto dannoso rimosso viene poi utilizzato per “addestrare” le macchine a una migliore analisi preventiva per il futuro.

Ma cosa accade con riferimento all’iscrizione degli utenti e quindi, alla presenza degli under 18 tra gli utenti di Google? Ricordiamo brevemente che l’art. 8.1 del Regolamento privacy europeo ha introdotto la regola generale per cui il cd. “consenso digitale” applicato alla fornitura di servizi online per ragazzi sotto i 18 anni sarà lecito solo laddove il minore “abbia almeno 16 anni”. Nel caso in cui, invece, l’interessato abbia un’età inferiore, il trattamento dei dati verrà considerato lecito “soltanto se e nella misura in cui tale consenso è prestato o autorizzato dal titolare della responsabilità genitoriale”, ferma restando la possibilità degli Stati membri di stabilire con legge nazionale (in Italia ancora non è stata adottata) “un’età inferiore a tali fini purché non inferiore ai 13 anni”. In sostanza, se la legge nazionale dovesse fissare il limite a 15 anni, tutti i minori tra i 13 anni e i 15 anni meno un giorno, dovranno ottenere il consenso del genitore per iscriversi ai social o ad altre piattaforme digitali. Questo consenso genitoriale, peraltro, dovrà essere verificato attivamente dal titolare del trattamento (il social network, ad esempio) “in ogni modo ragionevole”. Qui è disponibile l’elenco degli attuali limiti di età per prestare il consenso online in ciascun paese – si ricorda che in Italia il limite è fissato a 14 anni, come da Art. 2 –quinquies del D. Lgs. n. 101 del 10 agosto 2018, che adegua la normativa nazionale al GDPR, in vigore dal 19 settembre: https://support.google.com/accounts/answer/1350409?p=families_aoc&visit_id=1-636609008982616341-1926987227&rd=1.

In linea con quanto sopra, l’11 maggio Google ha rilasciato una serie di aggiornamenti relativi a ragazzi e genitori che vanno a implementare il GDPR all’interno delle regole delle sue piattaforme. In particolare, per gli under 16, è stata lanciata la app Family Link (https://families.google.com/familylink/) che consente ai genitori di creare un account Google (quello che comunemente conosciamo come Gmail) appositamente per i ragazzi e stabilire alcune regole digitali di base per la navigazione. In particolare, la app permette di:

  • Gestire le applicazioni che il figlio può utilizzare, approvando o bloccando le app che vuole scaricare dal Google Play Store sul suo dispositivo;
  • Tenere sotto controllo il tempo di utilizzo dei dispositivi, sia con riferimento all’uso delle app, sia per quanto riguarda l’uso del PC, telefono o tablet in sé. Sono disponibili rapporti settimanali o mensili sulle attività e si possono impostare limiti giornalieri per il tempo di utilizzo dei dispositivi.
  • Impostare l’ora di dormire, bloccando il dispositivo del ragazzo da remoto quando è ora di andare a dormire o di fare una pausa.
  • Impostare i filtri per alcune app Google, come Ricerca e Chrome, filtrando i risultati troppo espliciti restituiti dal motore di ricerca (https://support.google.com/websearch/answer/510?source=gsearch).
  • Modificare o eliminare le informazioni sull’account Google dei propri figli (foto, nome, data di nascita, sesso ecc…).
  • Reimpostare la password dell’account del minore anche se, ovviamente, nel momento in cui il genitore cambia la password del figlio, quest’ultimo verrà disconnesso dal suo dispositivo e tutte le impostazioni di supervisione che il genitore aveva attivato con Family Link non funzioneranno fino a quando il ragazzo non eseguirà di nuovo l’accesso.

Attualmente, queste funzionalità possono essere gestite dall’adulto sia tramite Apple che Android, però il dispositivo del minore dovrà essere un necessariamente Android per poter essere sottoposto ai meccanismi di parental control di cui sopra.

Quanto detto per Family Link è valido anche con riferimento a YouTube. Infatti, per accedere a YouTube, è necessario creare un account Google che per un minore di 16 anni, essendo creato con Family Link, sarà sottoposto alla vigilanza del genitore. Per evitare che i ragazzi utilizzino un altro account, sfuggendo alla sorveglianza del genitore, il dispositivo Android impedirà l’inserimento di più account – evitando, ad esempio, che il bambino passi a un profilo non collegato a Family Link per scaricare app da Google Play senza l’approvazione di un genitore. In tal modo, l’adulto potrà applicare a YouTube la modalità con restrizioni, che consente di escludere contenuti potenzialmente inappropriati per i minori.

Inoltre, gli annunci pubblicitari sui servizi Google proposti agli account di minori creati con Family Link, sono sottoposti a un processo di revisione per contribuire ad assicurare che siano adatti alle famiglie e non saranno in alcun modo personalizzati, cioè non saranno basati su informazioni derivate dal profilo del minore.

Per confermare che il genitore sta dando il suo consenso in qualità di titolare della potestà genitoriale, al momento della creazione dell’account Google del figlio, gli verrà chiesto di verificare la carta di credito. Per ogni account creato (quindi per ogni figlio) verrà addebitato un importo pari a 1 centesimo che costituisce solo un’autorizzazione temporanea sulla carta per verificarne la validità – solitamente le autorizzazioni temporanee vengono rimosse dal conto entro 48 ore.

Una volta che il ragazzo avrà compiuto 16 anni, potrà passare a un account Google normale. Prima che ciò avvenga, i genitori riceveranno una e-mail che li informerà che, il giorno del suo compleanno, il figlio diventerà idoneo a gestire il proprio account autonomamente e spetterà a lui scegliere come utilizzarlo – o eventualmente decidere che i genitori continuino a monitorarlo.

L’unica pecca di un sistema che sembra piuttosto ben funzionante, risiede nella impossibilità di utilizzare Family Link per gestire account Google già esistenti, creati dagli under 16 prima dell’applicazione del GDPR (25 maggio 2018). Molte persone hanno espresso questa esigenza e Google sta lavorando per fare in modo di soddisfarla, assieme a tante altre novità che arriveranno presto anche in Italia.

A cura di: Camilla Bistolfi

Profilo Autore

Specializzata cum laude in Scienze di governo e della comunicazione pubblica alla LUISS Guido Carli. Attualmente ricopre la posizione di Associate nel dipartimento TMT presso lo studio legale Hogan Lovells ed è Privacy Officer e Consulente della Privacy certificato dal TÜV.
Dopo un tirocinio presso il Garante Privacy (Dipartimento attivià ispettive e sanzioni), ha ottenuto nel 2014 l’incarico di Research Fellow dell’Istituto Italiano per la Privacy e la Valorizzazione dei Dati – di cui è diventata nel 2017 componente del Consiglio di Amministrazione – e per il quale ha seguito progetti di advocacy nazionali ed europei nonché quelli di ricerca e innovazione Horizon2020, finanziati dalla Commissione Europea.
Camilla ha fondato e diretto il Centro Nazionale Anti-Cyberbullismo (CNAC) sino a dicembre 2018 e continua a occuparsi delle tematiche relative a minori e genitorialità digitale.
È coautrice nella raccolta “Privacy Technologies and Policies” (Springer, 2016) di uno studio in tema di IoT e 3D privacy e di una pubblicazione su pseudonimizzazione, privacy e Big Data sulla Computer Law & Security Review. Ha scritto, in questi anni, anche di social network, minori e abusi online, digital parenting, identità digitali e portabilità dei dati.
È autrice con Luca Bolognini ed Enrico Pelino del volume “Il Regolamento Privacy Europeo”, il primo commentario italiano sulla materia pubblicato nel 2016 da Giuffrè.

Condividi sui Social Network:

Articoli simili