Smartificazioni distopiche
Diversi media[1] in questi giorni riportano la notizia dell’imminente diffusione in Italia di negozi dotati di speciali sensori in grado di identificare le merci prelevate sugli scaffali dai clienti – al cui ingresso in negozio sarà applicato un codice identificativo – e che figureranno poi in un carrello virtuale generante un QR code che comparirà totem all’uscita dei locali così da poter procedere, tramite scansione, al pagamento rigorosamente digitale. Il negozio prevede un sistema di telecamere che monitorano i clienti e registrano i prodotti prelevati grazie ad un sistema “computer vision” gestito da Intelligenza Artificiale. Ai dati raccolti attraverso la videosorveglianza andranno ad integrarsi i dati emessi dagli scaffali che rileveranno i prodotti prelevati. Le catene di vendita intenzionate a ricorrere a tali tecnologie sostengono di non violare in alcun modo la privacy dei clienti sottolineando che l’anonimato verrà loro garantito visto che per le apparecchiature l’acquirente resterà soltanto un codice temporaneo non associabile a un individuo una volta terminate le operazioni di spesa, cosa che solleva più di qualche dubbio, visto anche che i pagamenti digitali presuppongono carte di debito o di credito associate a identità ben precise. Non si potrà negare che tutto ciò è “smart”. La bellezza del fare la spesa senza scambiare una parola con un altro essere umano non dovrebbe essere sottovalutata.
Sempre in questi giorni sui media viene riportato l’annuncio del direttore generale della polizia di frontiera britannica, Phil Douglas, che presto per mettere piede nel Regno Unito anziché dover mostrare il passaporto, “sarà sufficiente” sottoporsi al “riconoscimento facciale”. Come già avviene a Dubai e in alcuni aeroporti australiani, presto anche oltremanica saranno in funzione “e-gates” capaci di rendere la frontiera “rapida, intelligente e fluida, con molti meno ritardi e disagi”, per usare le parole dello stesso Douglas[2]. Ad enfatizzare i benefici offerti dalla tecnologia nel rendere più rapide le operazioni di ingresso nel Regno Unito è lo stesso aeroporto di Heathrow nel suo sito: “I gate per passaporti elettronici accelerano l’ingresso nel Regno Unito. Basta scansionare il tuo passaporto e consentire al nostro sistema di abbinare il tuo viso al chip nel passaporto”[3]. In Europa l’aeroporto di Atene è stato il primo a sperimentare il riconoscimento del volto per la carta d’imbarco.
Pur trattandosi di sistemi tecnologici differenti ed a diverso grado di interferenza nella privacy degli individui, i negozi sottoposti a “computer vision” e gli “e-gates” operanti attraverso il “riconoscimento facciale” fanno parte di quel processo di “smartificazione” a cui si sta sottoponendo la società contemporanea supportata da uno storytelling celebrante miglioramenti che, in fin dei conti, hanno a che fare con i tempi e i fini imposti dalla società della prestazione, della mercificazione e del controllo, come se fosse a questa triade che si deve far riferimento quando si parla di qualità della vita.
Restando al riconoscimento facciale, occorre sottolineare che si tratta di una tecnica biometrica per verificare l’identità di un individuo a partire da una sua immagine. A riprova di quanto si tratti di una pratica in via di rapida diffusione, basti osservare come le scansioni del viso stiano via via sostituendo i sistemi di riconoscimento basati sulle impronte digitali per accedere a numerose apparecchiature o servizi. Il sistema di riconoscimento facciale tradizionale presenta ancora somiglianze con il sensore di rilevamento di impronte digitali, basandosi infatti su un sistema di misurazioni del volto (es. distanza tra le pupille) o sullo studio di come i pixel si raggruppano per formare le varie parti del volto e paragonarli con immagini archiviate. I sistemi di riconoscimento facciale più avanzati ricorrono invece al machine learning e si basano sull’individuazione dei tratti univoci messi a confronto con una banca dati di immagini sterminata.
“L’utilizzo dei dati biometrici ha già rilevato molte carenze in grado di causare errori sistematici cosiddetti bias induttivi dell’algoritmo e, di conseguenza, tali da determinare probabili rischi per le persone”[4]. Se gli errori possono derivare dal ricorso a dati errati o non veritieri, altra questione problematica può derivare dai pregiudizi contenuti nel materiale con cui viene istruita l’intelligenza artificiale.
La studiosa Barbara Grespi[5] ha sottolineato come la minaccia terroristica in Occidente abbia condotto all’ossessione del riconoscimento preventivo, come dimostra il Project Hostile Intent istituito nel 2007 dal Dipartimento di Sicurezza Interna degli Stati Uniti per formare agenti in grado di “interpretare i corpi” di chi si presenta negli aeroporti a partire dai dati comportamentali, gestuali e vocali. Alle tradizionali tecniche di osservazione sul campo sono stati affiancati Future Attribute Screening Technology, sussidi tecnologici volti a monitorare la temperatura basale, il movimento oculare e il battito cardiaco così da supportare gli agenti della Transportation Security Administration, sottosezione dei Behaviour Detection Officers, di determinare il “coefficiente di pericolosità”, ossia la propensione a delinquere dell’individuo “scansionato”, derivato dal modello di “riconoscimento delle emozioni” elaborato dallo psicologo statunitense Paul Ekman, ideatore del Facial Action Coding System, basato su una misurazione obiettiva dei micromovimenti facciali.
Nei tentativi di prevenire i crimini e di riconoscere i segni del volto che rivelano affermazioni menzognere è facile intravedere rispettivamente le ossessioni che abitano Minority Report – il film di Steven Spielberg, liberamente tratto dall’omonimo racconto di Philip K. Dick, è uscito nel 2002 in pieno “clima 11 settembre” –, e quelle caratterizzanti la serie televisiva Lie to Me (Fox 2009-2011), vero e proprio spot a supporto del modello di Ekman, che non a caso è il supervisore scientifico della serie.
“Nel contemporaneo sistema di controllo dei corpi, [la] dimensione immaginaria del gesto – associata a un’idea di corpo come medium che elabora immagini e le trasmette con un proprio linguaggio e una propria forma di memoria – viene totalmente rimossa. Nei luoghi di transito, infatti, ci si sforza di omologare la rilevazione del gesto alle altre misurazioni corporee effettuate. La stessa osservazione in video degli stili di comportamento, al di là del fatto che risponde alla filosofia bellica occidentale dell’operare a distanza, viene sperimentata come tecnica di oggettivazione attraverso la tecnologia: registrato da una videocamera, il gesto diventa più facilmente prova, assomiglia di più alle rilevazioni dei molti sensori che completano l’attività di sorveglianza degli agenti, e che proprio perché non contengono variabili “umane” sono considerati attendibili, gender, culture and age-neutral”[6].
Curiosamente, nota Grespi, il film Gattaca (1997) di Andrew Niccol ipotizza una distopia caratterizzata dalla crescente indexicalità, precisione e infedeltà iconica del dato identificativo. Ad essere messa in scena è una società che ricorre all’identificazione attraverso l’impronta delle dita su un sensore in grado di forare la pelle e analizzare il Dna attraverso il sangue. Se tale scenario distopico è in linea con lo sviluppo del sistema di identificazione indexicale affermatosi a fine Ottocento, la “guerra al terrore”, sottolinea la studiosa, sembra invece far ritorno all’iconicità.
Se del sistema di controllo cinese sulla popolazione si occupano spesso i media occidentali, poco spazio viene dedicato all’utilizzo dei dispositivi di controllo facciale a scopo commerciale e di polizia in altri paesi. Ad esempio, in Russia viene utilizzata la app Findface per risalire da una fotografia di un individuo al suo profilo social, in Canada il controllo visivo viene impiegato nei casinò per individuare e sfruttare segni di ludodipendenza, negli Stati Uniti alcune catene di fast food derivano dalle riprese dei volti dei clienti i menu preferiti, in Inghilterra la polizia ha sperimentato i sistemi di riconoscimento facciale per controllare la folla durante il carnevale di Notting Hill[7].
Secondo Amnesty International, “le autorità israeliane farebbero uso di applicazioni installate sui propri dispositivi per identificare cittadini palestinesi per strada o durante i raid domestici. Successivamente, tali immagini verrebbero registrate in un database centrale e scansionate con appositi software, come l’app scaricabile sui cellulari Red Wolf, [che] utilizzerebbe un sistema di codici di colore verde, giallo e rosso per identificare il soggetto e, di conseguenza, stabilire se lasciarlo andare, interrogarlo o arrestarlo”[8]. Anche in questo caso vengono addotti motivi di sicurezza interna come giustificazione a tali controlli, nonostante sia evidente il rischio che questi vengano condotti su base etnica. “Il riconoscimento facciale minaccerebbe le libertà delle comunità maggiormente a rischio di false identificazioni e arresti arbitrari. Anche se una persona venisse correttamente identificata, il riconoscimento facciale acuirebbe le discriminazioni attuate dalle forze di polizia israeliana, impedendo ai cittadini palestinesi l’accesso a beni e servizi essenziali”[9].
Viene ripetuto in continuazione dalle imprese commerciali, dai media – inclini a riportare acriticamente i comunicati aziendali – e dalle istituzioni che le tecnologie di identificazione facciale sono necessarie per garantire un adeguato livello di sicurezza e che dunque vale la pena sacrificare qualcosa in termini di privacy per tale scopo. Non è però difficile cogliere come sulla retorica della “sicurezza” e della “smartificazione” diffusa si stia sventrando quel che resta della società.
Per Codice Rosso, Gioacchino Toni
[Gioacchino Toni, redattore di “Carmilla online”, si è occupato di tali tematiche nel volume Pratiche e immaginari di sorveglianza digitale, Il Galeone, Roma 2022]
[1] Ad esempio: Maurizio Perriello, In Italia arrivano i primi supermercati senza casse, in “Qui Finanza”, 11 novembre 2023.
[2]Antonello Guerrera, Regno Unito, presto si entrerà senza passaporto: “Basterà il riconoscimento facciale” in “la Repubblica”, 2 gennaio 2024.
[3] https://www.heathrow.com/it/arrivals/immigration-and-passports
[4] Marco Martorana, Riconoscimento facciale, è allarme privacy nel mondo: ecco i rischi e le misure a tutela, in “Agenda Digitale”, 5 giungo 2019.
[5] Barbara Grespi, Il controllo dei corpi nel quadro dei conflitti contemporanei, in Maurizio Guerri, a cura di, Le immagini delle guerre contemporanee, Meltemi, Milano 2018.
[6] Ivi, pp. 355-356
[7] Davide Girbaldi, Riconoscimento facciale, è boom nei luoghi pubblici: quali regole a tutela della privacy, in “Agenda Digitale” 8 marzo 2019.
[8] Amnesty International, Automated Aparheid. How facial recognition fragments, segregates and controls palestinians in the OPT, 2023. Riportato in Davide Agnello, Il riconoscimento facciale rafforza l’apartheid nei Territori Palestinesi: la denuncia Amnesty International, in “Agenda Digitale”, 15 maggio 2023.
[9] Ibidem.