Con ChatControl entra nell’UE il cavallo di Troia della sorveglianza
La proposta di regolamento dell’Ue rischia di aprire al controllo sistematico e di massa su tutti i cittadini europei, in violazione di regole fondamentali come la proporzionalità nel trattamento dei dati personali e il principio di presunzione d’innocenza
Da quasi un anno l’Unione Europea sta discutendo una proposta di regolamento denominata “ChatControl”, il cui scopo è la ricerca di materiale pedopornografico ma che rischia di sfociare in una gigantesca violazione dei diritti fondamentali dei cittadini europei.
La proposta prevede l’istituzione di apposite “autorità coordinatrici” in ogni Stato Membro, le quali avranno il potere – di concerto con altre autorità nazionali – di emanare “ordini di rilevazione” (o detection order) attraverso i quali potranno imporre ad alcuni servizi digitali (come social network e servizi di messaggistica) di installare un sistema di analisi automatizzata delle conversazioni di tutti gli utenti per individuare contenuti pedopornografici.
A seguito di questi ordini e per un periodo di massimo 24 mesi le conversazioni di tutti gli utenti sarebbero costantemente monitorate e confrontate con database contenenti “indicatori” in grado di rilevare la presenza di immagini sensibili. La scansione riguarderebbe tutti gli utenti, senza distinguere, ad esempio, tra account precedentemente segnalati, specifiche utenze o zone geografiche.
Le preoccupazioni che questo regolamento suscita sono molteplici. Nonostante le soluzioni tecniche finora proposte potrebbero prevedere l’utilizzo di sistemi di cifratura delle informazioni sottoposte ad analisi, si verificherebbe comunque un controllo sistematico e di massa su tutti i cittadini europei, in violazione di regole fondamentali come la proporzionalità nel trattamento dei dati personali e il principio di presunzione d’innocenza.
L’implementazione di questi sistemi, inoltre, impedirebbe di utilizzare sistemi di crittografia end-to-end. Questo tipo di crittografia è molto diffusa (la utilizzano, ad esempio, WhatsApp, Signal e iCloud) e permette a chi ne beneficia di avere il massimo livello di sicurezza delle informazioni, in quanto solo il mittente e il destinatario di un’informazione possono accedere ai dati. Al contrario, qualsiasi accesso da parte di soggetti terzi è escluso.
La scansione dei messaggi deve operare su informazioni non cifrate e questo livello di sicurezza sarebbe impossibile da mantenere. Con ogni probabilità si verrebbe a creare un paradosso: da un lato gli utenti comuni non potrebbero più utilizzare la crittografia end-to-end e sarebbero esposti ad intrusioni di terzi, sia privati che pubblici; dall’altro coloro che diffondono materiale pedopornografico si rivolgerebbero a servizi diversi, meno conosciuti e insensibili a questo tipo di soluzioni, come reti decentralizzate.
I rischi non riguardano solo gli abusi ma anche gli errori dell’algoritmo, che sarebbero amplificati dalla quantità di dati interessati dai controlli. Ad esempio, su WhatsApp vengono scambiati oltre 70 miliardi di messaggi al giorno. Con questi numeri, anche una percentuale di errore dell’1% comporterebbe quantità enorme di segnalazioni errate, con conseguenti costi e tempi di gestione, nonché notevoli disagi per i soggetti coinvolti. In termini pratici, lo scambio di immagini per finalità assolutamente lecite, come la trasmissione di una foto da parte di un genitore ad un pediatra, potrebbe far scattare un allarme e un inutile accertamento.
Ciò che non ci convince è l’approccio al problema. In questi ultimi anni, il progresso tecnologico ha generato una tendenza alle raccolte massive di dati, in un’ottica di controllo e repressione dei comportamenti illeciti, nell’illusione che la tecnologia possa fornire soluzioni semplici e immediate a problemi complessi e radicati. In realtà, è molto comune che l’analisi di grandi quantità di dati pregiudichi l’efficacia delle investigazioni poiché inonda l’autorità di informazioni non utili, che richiedono tempo e risorse per essere gestite.
Il Regolamento ChatControl è, quindi, un caso di soluzionismo tecnologico. Senza voler sottovalutare il problema dello sfruttamento di minori on-line e del rischio di adescamento, le soluzioni dovrebbero essere differenti. In primo luogo tenere effettivamente conto dei diritti dell’intera comunità e, in secondo luogo, incoraggiando un approccio di tipo preventivo, che investa sulla consapevolezza di bambini e genitori e sul recupero di chi ha commesso reati legati allo sfruttamento di minori.
* Head del dipartimento legale e Legal officer di Privacy Network
Fonte/autore: Gabriele Ientile, Riccardo Apa, il manifesto
ph by Jakob Rieger, CC0, via Wikimedia Commons
Related Articles
Donazioni di vaccini, i paesi ricchi tradiscono le promesse
Covid-21. Il rapporto della People’s Vaccine Alliance: consegnato solo il 14% delle dosi promesse alle nazioni a basso e medio reddito. Le aziende farmaceutiche invece non non forniscono le fiale concordate con Covax e non rinunciano neanche ai brevetti
C’è un nuovo libro nero delle tangenti La ricerca di sponsor in Parlamento
Il quaderno era nascosto a casa di un collaboratore di Salvatore Buzzi. E potrebbe fornire nuove tracce utili per individuare altri politici e funzionari pubblici messi a «libro paga» dal titolare della Cooperativa 29 Giugno
Senza più reddito, sessantenne minaccia di darsi fuoco in Sicilia
Proteste in tutto il Mezzogiorno. A Napoli sit in davanti la sede Inps. La Cgil Puglia: «In regione oltre 80mila persone sono povere benché occupate. Oltre il 90% dei rapporti di lavoro è precario o a tempo»