La profezia dell’algoritmo: la polizia diventa predittiva

by Fabrizia Candido | 30 Dicembre 2020 10:33

Loading

Modelli predittivi, così vengono chiamati i sistemi che tramite algoritmi statistici e tecniche di machine learning, individuano schemi e andamenti ricorrenti per prevedere eventi futuri. Sebbene in certi settori il loro utilizzo sia ormai comune – per prevedere la risposta di un paziente a un trattamento, individuare probabili focolai epidemici o l’insorgenza di guasti negli elettrodomestici, ad esempio – la sfida più ardua resta la previsione dei singoli comportamenti umani, un traguardo i cui risvolti spazierebbero dal campo assicurativo al marketing mirato, dalla sorveglianza alla polizia predittiva.

I SOCIAL NETWORK, dove il 45 % della popolazione mondiale rilascia costantemente informazioni personali, sono un’inestimabile fonte di dati per l’allenamento di tali modelli. In questo contesto, anche la natura dei pensieri e delle emozioni condivise sul web diventa oggetto di analisi, come dimostra l’edonometro, l’algoritmo dell’Università del Vermont che ogni giorno dal 2008 analizza circa 50 milioni di tweet per valutare l’umore dell’opinione pubblica. Nel 2014 un sistema simile è stato usato da un gruppo di ricercatori cinesi per identificare coloro più inclini al suicidio.

Hanno esaminato un set di messaggi condivisi su Weibo, nota piattaforma di microblog cinese, per individuare caratteristiche linguistiche ricorrenti sulla cui base allenare un algoritmo capace di calcolare il Suicide Probability Scale Score dei vari utenti. Un altro studio ha invece usato Weibo per la sentiment analysis, nota come opinion mining.

L’obiettivo è comprendere che tipo di esperienza hanno avuto gli utenti circa un determinato prodotto, servizio o avvenimento, delineare la polarità delle loro opinioni e prevedere eventuali reazioni future: tendenze di mercato, azioni di protesta o persino attacchi terroristici. In Cina i modelli predittivi si intrecciano col piano per il sistema nazionale di crediti sociali, di cui sono già attivi dei progetti pilota con varianti locali.

Catalogando dati su pagamenti di fatture, rispetto di contratti stipulati, attitudini individuali e relazioni interpersonali, il sistema valuta la condotta dei cittadini e delle aziende e fornisce le basi per predire il loro grado di «affidabilità». Una previsione, sebbene non del tutto irreversibile poiché influenzabile da «azioni di recupero», da cui dipende la possibilità di accedere ad alcuni servizi, tra cui prestiti, servizi sanitari, biglietti aerei o ferroviari.

QUESTI MODELLI, che calcolano la potenzialità e la probabilità di un evento, per quanto accurati non sfuggono però a margini di errore. Se l’algoritmo di Spotify, Youtube o Netflix non è stato in grado di prevedere quale contenuto l’utente avrebbe gradito maggiormente, lo scenario diventa più complesso quando i modelli predittivi vengono schierati da organi di controllo e sorveglianza. Non si tratta dei precog di Minority Report, ma di software di polizia predittiva già in uso.

L’IJOP (Integrated Joint Operations Platform) è il sistema fornito dalla Xinjiang Lianhai Cangzhi Company, sussidiaria della China Electronics Technology Group Corporation, appaltatrice militare di proprietà statale, che integra dati biometrici, attività online, relazioni interpersonali e informazioni di discutibile rilevanza – come la poligamia, l’uso anomalo di elettricità e l’accumulazione di scorte di cibo – per individuare potenziali minacce, allertare le autorità e avviare azioni «rieducative e preventive».

NON È UNA REALTÀ esclusivamente cinese. La questura di Milano utilizza delia®, il software di analisi predittiva del crimine della startup KeyCrime, e l’azienda californiana PredPol si definisce «market leader in predictive policing». L’estrazione di dati per l’allenamento di algoritmi predittivi coinvolge inoltre l’intero gruppo GAFAM (Google, Apple, Facebook, Amazon e Microsoft), che spalancano così le proprie porte a quelli che la nota autrice di saggi e libri sul capitalismo della sorveglianza, Shoshana Zuboff, chiama behavorial futures markets, mercati basati sul passaggio da monitoraggio a orientamento verso esiti redditizi del comportamento individuale. In questo modo si favoriscono acquisti e tendenze, si influenzano opinioni e voti elettorali.

MONITORARE, PROCESSARE, quantificare e monetizzare, è questa la sequenza. I post di StocKTwits, il social per trader e investitori, vengono analizzati per prevedere volatilità e rischi associati alle obbligazioni, Behavioral Signals, una start up di Los Angeles, usa il machine learning per analizzare le emozioni nella voce e prevedere risposte binarie in specifici contesti e infine la chatbot Microsoft Xiaoice flirta, scherza e simula rapporti sessuali con i suoi interlocutori, al fine di creare profonde connessioni emotive che accumulando dati potenziano il suo algoritmo, rendendolo redditizio.

Nel 2019 è stato persino dimostrato che è possibile predire l’attività social di un individuo utilizzando i dati provenienti da altre 8 persone appartenenti alla sua rete Twitter. Significa che ogni interazione online espone dati anche di chi non è connesso e potenzialmente di chi non ha nemmeno un account: there’s no place to hide ha commentato Lewis Mitchell, coautore dello studio.

Il Processo di Kafka parla di una misteriosa polizia che indaga sulla vita del protagonista per ragioni che lui non riesce a capire. Una buona immagine per rappresentare l’individuo del XXI secolo che più o meno inconsapevolmente è oggetto della più grande operazione di data mining della storia.

* Fonte: Fabrizia Candido, il manifesto[1]

Post Views: 523
Endnotes:
  1. il manifesto: https://ilmanifesto.it/

Source URL: https://www.dirittiglobali.it/2020/12/la-profezia-dellalgoritmo-la-polizia-diventa-predittiva/