Il riconoscimento facciale trasforma la sorveglianza in un sistema invisibile e pervasivo. Attraverso social sorting, bias algoritmici e chilling effect, incide su privacy, uguaglianza e libertà fondamentali. Il quadro giuridico europeo — GDPR e AI Act — pone limiti, ma la sfida democratica rimane aperta.

La sorveglianza diventa liquida

L’evoluzione delle tecnologie di monitoraggio ha profondamente trasformato il concetto stesso di sorveglianza. Se il modello classico era caratterizzato da una sorveglianza “solida”, localizzata, visibile e legata a spazi fisici definiti, l’attuale panorama tecnologico mostra i tratti di una sorveglianza liquida, diffusa, invisibile, pervasiva e svincolata da confini spaziali e temporali.

Entrare in un edificio, attraversare una piazza, salire su un mezzo pubblico. Gesti ordinari, apparentemente neutri. Eppure, sempre più spesso, dietro queste azioni quotidiane si cela un processo invisibile: il nostro volto viene rilevato, analizzato, confrontato con banche dati, valutato da algoritmi. Senza che ce ne accorgiamo.

Un sistema silenzioso che normalizza la sorveglianza

È questo il volto della sorveglianza contemporanea: non più confinata a telecamere ben visibili o a spazi chiusi, ma liquida, ubiqua, silenziosa. Un sistema che non ha bisogno di barriere fisiche né di controlli espliciti, perché si insinua nella quotidianità e la normalizza.

Al centro di questo cambiamento c’è una tecnologia tanto efficace quanto controversa: il riconoscimento facciale che si configura come una delle tecnologie più invasive e simbolicamente potenti, poiché consente l’identificazione univoca dell’individuo nello spazio pubblico e privato, trasformando il volto in una vera e propria chiave di accesso universale.

L’uso combinato di sistemi biometrici, intelligenza artificiale e banche dati massificate produce una sorveglianza non più reattiva, ma preventivamente predittiva, con ricadute profonde sui diritti fondamentali e sull'assetto democratico.

Il modello della sorveglianza classica è superato

Per decenni la sorveglianza è stata associata a immagini forti: il “Grande Fratello”, il panopticon, l’osservazione costante esercitata da un potere centrale. Oggi quel modello è superato. Non serve più osservare tutti, sempre. È sufficiente raccogliere dati, incrociarli e classificarli.

Il riconoscimento facciale rappresenta l’apice di questa trasformazione. A differenza di badge o documenti, non richiede azioni volontarie. Si attiva automaticamente, invisibilmente, rendendo l’individuo tracciabile in continuo.

Un trattamento biometrico a rischio

Il riconoscimento facciale rientra a pieno titolo tra i trattamenti biometrici, in quanto fondato su dati personali “particolari”, idonei a identificare in modo univoco una persona fisica. La sua pericolosità non deriva solo dalla natura del dato trattato, ma dall’automatizzabilità del trattamento stesso.

Il GDPR qualifica i dati biometrici come categorie particolari di dati personali (art. 9), vietandone il trattamento salvo eccezioni rigorose. L’identificazione biometrica automatizzata, specie nello spazio pubblico, difficilmente può dirsi conforme ai principi di necessità, proporzionalità, minimizzazione, liceità e trasparenza.

Il nuovo paradigma con l'AI Act

A ciò si aggiunge il nuovo AI Act, che segna un vero punto di svolta politico: il regolamento europeo sull’intelligenza artificiale vieta in linea di principio l’uso del riconoscimento facciale in tempo reale negli spazi pubblici, consentendolo solo in casi eccezionali e rigidamente circoscritti (sicurezza nazionale, gravi reati, mandato giudiziario).

Un volto che non puoi cambiare

Il volto diventa una password permanente, impossibile da cambiare, che ci accompagna ovunque. E proprio per questo è una tecnologia profondamente sbilanciata a favore di chi controlla. Non è solo una questione di privacy. È una questione di potere.

La discriminazione sociale algoritmicamente determinata

Un primo effetto, spesso sottovalutato, dell’utilizzo del riconoscimento facciale è il cosiddetto fenomeno del social sorting, ossia la classificazione automatizzata delle persone sulla base di dati biometrici e comportamentali.

Incrociando immagini, movimenti, abitudini e contesti, i sistemi algoritmici costruiscono profili che collocano gli individui all’interno di categorie funzionali: soggetto affidabile o sospetto, cliente desiderabile o rischio potenziale, comportamento conforme o deviante. Si tratta di etichette che non descrivono semplicemente la realtà, ma contribuiscono a plasmarla.

I limiti dell’algoritmo: classificazioni opache

Influenzano l’accesso a servizi, opportunità commerciali, spazi fisici e digitali. Spesso avvengono senza che l’interessato ne sia consapevole e senza possibilità di contestazione reale. Non c’è un funzionario a cui chiedere spiegazioni, né un criterio giuridico chiaramente verificabile. C’è solo un output algoritmico.

Il social sorting opera, infatti, silenziosamente, al di sotto della soglia di consapevolezza dell’interessato, sfruttando meccanismi decisionali automatizzati che sfuggono al controllo umano e al sindacato giurisdizionale. Si realizza, così, una forma di governo algoritmico che sostituisce criteri giuridici con metriche probabilistiche, normalizzando l’eccezione e cristallizzando le disuguaglianze.

Effetti silenziosi e diffusi

In tal modo, il social sorting realizza una forma di selezione silenziosa, che non si manifesta attraverso divieti o decisioni formali, ma attraverso meccanismi di inclusione ed esclusione progressiva. Le differenze di trattamento non vengono dichiarate né motivate, bensì incorporate nel funzionamento ordinario dei sistemi tecnologici, rendendo le disuguaglianze meno visibili e, proprio per questo, più difficili da individuare e contrastare.

L’ingiustizia algoritmicamente leggiadra

Sul piano giuridico, il problema non è soltanto la possibile discriminazione, ma la sostituzione del giudizio normativo con una logica classificatoria automatizzata. Il rischio è quello di un progressivo spostamento dal diritto come insieme di regole generali e verificabili a un sistema di valutazioni dinamiche e opache, che incidono sulla sfera giuridica degli individui senza assumere la forma di atti giuridici in senso proprio.

Il rischio è evidente: la trasformazione della società in un sistema di corsie preferenziali invisibili, in cui l’inclusione o l’esclusione non passano più da decisioni