Skip to main content

La protezione dei minori online è un imperativo etico e legale, ma le recenti decisioni del Consiglio dell’Unione europea sul cosiddetto regolamento “chat control” (finalizzato a frenare la diffusione di materiale pedopornografico) evidenziano una tensione tra l’urgenza della sicurezza e la difesa dei diritti fondamentali digitali, come la privacy e l’anonimato.

Il cuore del dibattito è la proposta di imporre alle piattaforme di messaggistica (cioè tutte quelle che chiunque di noi usa sul proprio telefono) la scansione automatica, e a volte obbligatoria, dei contenuti degli utenti (testi e immagini) per identificare e segnalare eventuali abusi. Tale misura ha sollevato un conflitto politico tra l’esigenza di sicurezza dei minori e la difesa della crittografia e della privacy digitale.

Come riportato da EUobserver, il Consiglio è giunto a un accordo politico su una proposta che cerca di sbloccare lo stallo normativo, rimuovendo gli ordini di rilevamento obbligatorio che avrebbero richiesto ai servizi di messaggistica di scansionare preventivamente i messaggi degli utenti. Tale misura era stata duramente criticata come una forma di sorveglianza di massa incompatibile con la crittografia end-to-end (il sistema che garantisce che solo il mittente e il destinatario possano leggere il messaggio).

La battaglia normativa si è consumata in un clima di crescente allarme sociale, alimentato da statistiche preoccupanti, come i dati dell’Internet Watch Foundation che localizzano il 62% delle pagine che mostrano abusi su minori esaminate all’interno dell’Unione europea nel 2025, e dalla crescente consapevolezza della dipendenza giovanile dai dispositivi digitali.

Tuttavia, il compromesso raggiunto, pur eliminando l’obbligo di scansione generalizzata, non ha placato le preoccupazioni delle organizzazioni per i diritti digitali. L’accordo, come denunciato dall’associazione EDRi (European Digital Rights) in un comunicato stampa, presenta rischi residui significativi, che minano la certezza legale costruita con fatica attorno a regolamenti come il GDPR (la legge europea sulla protezione dei dati personali) e l’AI Act.

Il testo approvato dal Consiglio stabilisce un nuovo sistema di valutazione obbligatoria del rischio, in cui le aziende devono analizzare i propri servizi e vengono classificate in base al rischio (basso, medio, alto) di diffusione di materiale che mostra abusi su minori. Le aziende ritenute ad alto rischio potrebbero essere obbligate a migliorare i propri servizi per mitigare il fenomeno.

Nonostante l’abbandono della scansione obbligatoria, i critici sollevano due punti principali che mantengono alta la tensione. Il primo riguarda la scansione volontaria con sistemi di intelligenza artificiale (IA): il compromesso mantiene attive le misure volontarie della legislazione precedente, consentendo alle aziende di scegliere di scansionare i contenuti sui loro servizi (potenzialmente utilizzando strumenti di IA) con il solo scopo di rilevare contenuti problematici. Questo lascia una “zona grigia” che, secondo EDRi, permette una forma di scansione di massa basata sull’IA non sufficientemente controllata. Il secondo punto critico concerne l’anonimato e il futuro obbligo: la proposta è criticata perché renderebbe la comunicazione anonima “impossibile”, elemento cruciale per la libertà di espressione online. Inoltre, il testo prevede che la Commissione valuti, dopo tre anni, la “necessità e fattibilità” di reintrodurre gli ordini di rilevamento obbligatorio. Questo mantiene viva la prospettiva di una sorveglianza di massa in futuro.

Il dibattito sulla protezione dei minori ha guadagnato slancio politico, con il Parlamento europeo che, lo stesso giorno dell’accordo del Consiglio, ha votato a favore di raccomandazioni che chiedono un rafforzamento delle misure di tutela dei minori online, includendo l’introduzione di requisiti di verifica dell’età e norme più severe sui sistemi che creano dipendenza.

La portavoce del Parlamento sul dossier ha sottolineato la volontà di “fare di più” per i minori, un sentimento che tuttavia si scontra con il più ampio desiderio della Commissione di una “semplificazione” (o deregulation) del corpus normativo digitale dell’UE. La posta in gioco è la coerenza del diritto digitale europeo: è necessario garantire una legislazione che protegga i diritti e le libertà fondamentali, senza sacrificare la sicurezza dei minori sull’altare di soluzioni tecnologiche invasive o di una deregolamentazione spinta dalle lobby aziendali. Spetta ora al Parlamento e al Consiglio trovare un equilibrio definitivo nelle negoziazioni finali.

(Foto di kuu akura su Unsplash)

Questo articolo è solo un pezzetto

Scrivere ci piace, ma l’attività principale di Avis Legnano è la sensibilizzazione alla donazione di sangue. Per partecipare a questo progetto basta compilare il modulo d’iscrizione.

Lo trovi qui

Privacy Preference Center