Parental Control: dal prossimo mese scatta il filtro anche alle pagine Internet (direttamente dal provider)

Entra nel nuovo canale WhatsApp di NextMe.it Parental Control

A seguito del Decreto Legge 28/2020 e della delibera 9/23/CONS dell’Autorità per le garanzie nelle comunicazioni (AGCOM), a partire dal 21 novembre 2023, tutti gli operatori telefonici che offrono connessioni Internet a minori dovranno garantire la protezione attraverso un sistema di Parental Control. Questo strumento dovrebbe, in teoria, bloccare automaticamente l’accesso a siti Web ritenuti non sicuri, illegali, pericolosi o non adatta ai minorenni. Tuttavia, la normativa lascia spazio a interpretazioni sulla definizione di questi contenuti, il che potrebbe generare future controversie.

Mentre i Parental Control disponibili in piattaforme come Netflix e Prime Video o nei browser operano a livello di dispositivo, il nuovo sistema previsto agirà a livello di ISP (Internet Service Provider, cioè gli operatori telefonici che forniscono la connessione Internet). Questi dovranno adottare un meccanismo che impedisca la visualizzazione di contenuti inappropriati se la connessione Internet è sotto il nome di un minorenne. Gli ISP avranno la libertà di decidere se adottare un sistema basato sul blocco dei DNS dei siti ritenuti pericolosi o se utilizzare un’app specifica per la connessione, simile a una VPN filtrata.

La normativa sottolinea inoltre che il Parental Control dovrà essere fornito gratuitamente ai minorenni, ma gli adulti che desiderano attivarlo potrebbero dover pagare un extra. Inoltre, gli ISP possono proporre servizi aggiuntivi correlati al Parental Control, come la personalizzazione della “black list” dei siti bloccati o la creazione di finestre temporali per l’attivazione o disattivazione del controllo.

Criteri di filtraggio del Parental Control

Quali contenuti verranno bloccati dal nuovo Parental Control? L’AGCOM, dopo una consultazione pubblica con gli operatori di rete e le associazioni per la tutela dei minori, ha delineato delle linee guida inviate all’Unione Europea per una valutazione tecnica. In seguito, con la delibera 9/23/CONS, ha stabilito le principali categorie di contenuti che verranno filtrati, che comprendono: gioco d’azzardo, contenuti per adulti, armi, violenza, odio e discriminazione, promozione di comportamenti dannosi per la salute, servizi di navigazione anonima (anonymizer) e sette.

Sebbene la lista di contenuti da filtrare sembri ragionevole, potrebbero sorgere polemiche in futuro. Gli algoritmi responsabili del filtraggio potrebbero non essere precisi come quelli dei social network, rischiando sia di non bloccare contenuti dannosi sia di cadere nell’eccessiva censura. Ad esempio, i contenuti informativi e giornalistici su temi delicati come le attuali guerre potrebbero essere erroneamente bloccati. L’interpretazione di alcune categorie, come “violenza” e “sette”, potrebbe anche portare a significative controversie, soprattutto se influenzate da dinamiche politiche.