Chat Control, il regolamento che divide l’Europa

Giulia Conti

Un progetto nato per contrastare gli abusi online

Il Chat Control, formalmente denominato Child Sexual Abuse Regulation (CSAR), è una proposta legislativa dell’Unione Europea che mira a combattere la diffusione di contenuti pedopornografici online. La misura è stata introdotta nel 2022 e sta ora entrando in una fase cruciale, con il voto previsto tra gli Stati membri e successivamente il negoziato con il Parlamento europeo. L’iniziativa prevede che i fornitori di servizi digitali, comprese le piattaforme di messaggistica come WhatsApp, Telegram, Messenger, iMessage e Signal, siano obbligati a introdurre strumenti tecnologici in grado di individuare e bloccare contenuti illeciti. Tuttavia, il progetto ha sollevato un ampio dibattito per i suoi possibili effetti negativi sulla privacy e sulla sicurezza delle comunicazioni.

Il nodo della crittografia end-to-end

Uno degli aspetti più controversi riguarda la compatibilità del regolamento con i sistemi di crittografia end-to-end, che garantiscono che i messaggi possano essere letti esclusivamente dai destinatari. Le prime bozze del regolamento avevano ipotizzato l’introduzione di backdoor, ossia accessi riservati che avrebbero consentito di aggirare la protezione crittografica. Una soluzione di questo tipo, secondo gli esperti di cybersicurezza, avrebbe spalancato la strada a cybercriminali e regimi autoritari, compromettendo la riservatezza degli utenti. Le versioni più recenti del testo cercano di superare il problema proponendo controlli direttamente sui dispositivi, prima che i contenuti vengano cifrati, ma anche questa opzione presenta limiti tecnici e rischi di abusi.

Controlli preventivi e uso dell’intelligenza artificiale

Il regolamento prevede tre aree di monitoraggio: i contenuti pedopornografici già noti, quelli nuovi e i tentativi di adescamento dei minori. Nel primo caso, verrebbe utilizzato un database di immagini e video illegali identificati tramite hash crittografici. Per i contenuti inediti, invece, la proposta punta sull’impiego di algoritmi di intelligenza artificiale, capaci di analizzare file e segnalare quelli sospetti. Tuttavia, l’analisi tramite AI solleva diversi interrogativi: spesso richiede l’invio dei dati in chiaro su server esterni, riducendo di fatto la protezione crittografica; inoltre, i cosiddetti falsi positivi possono portare a errori gravi e a intrusioni ingiustificate nella sfera privata degli utenti.

Il problema del grooming e la verifica dell’età

Il contrasto al grooming, ovvero l’adescamento online dei minori, comporta sfide ancora maggiori. Per rilevare comportamenti sospetti sarebbe necessario analizzare i messaggi di testo, un’attività che rischia di annullare i benefici della crittografia. La proposta include anche l’obbligo per le piattaforme di introdurre sistemi di verifica dell’età, in modo da individuare gli utenti minorenni e applicare controlli mirati. Questa misura, però, implica la raccolta di ulteriori dati sensibili, con potenziali implicazioni per la protezione dei dati personali. In alcuni casi è previsto persino l’intervento umano per valutare le segnalazioni generate dagli algoritmi, con la conseguenza che dipendenti delle piattaforme potrebbero avere accesso diretto alle conversazioni private degli utenti.

Poteri alle autorità e rischio sanzioni

Il regolamento prevede che le autorità nazionali possano imporre l’adozione di strumenti di rilevamento a tutte le piattaforme che rientrano nei criteri fissati dal testo. Le aziende, in caso di mancata conformità, rischierebbero sanzioni fino al 6% del fatturato globale annuo. In teoria, l’adesione agli strumenti di controllo dovrebbe essere volontaria, ma nei fatti la discrezionalità concessa alle autorità limita fortemente questa libertà. La spaccatura politica tra i Paesi dell’Unione è netta: alcuni governi, come quello della Danimarca, sostengono con decisione la misura, mentre altri preferiscono un approccio più cauto. Il voto del 14 ottobre sarà determinante per capire quale direzione prenderà l’Europa sul delicato equilibrio tra tutela dei minori e difesa della privacy.