Italian Tech

Il caso

A Gaza il riconoscimento facciale sta sfuggendo di mano. E nel resto del mondo non va meglio

Banksy, street art (2004)
Banksy, street art (2004) 
L'identificazione delle persone basata su riconoscimento facciale, unito a sistemi di intelligenza artificiale, fa parte della strategia militare che Israele sta portando avanti nella striscia di Gaza per contrastare Hamas. Questa tecnologia viene usata sempre di più in ambito militare e nei Paesi totalitari. Ma anche negli Stati democratici può rappresentare una minaccia per i cittadini
3 minuti di lettura

Dopo l’attacco di Hamas ai danni di Israele dello scorso 7 ottobre, le forze armate dell’Unità 8200 - un reparto di intelligence militare israeliana - hanno acquisito filmato dalle videocamere di sorveglianza presenti nei luoghi colpiti. I militari, inoltre, hanno recuperato dai social le clip condivise da Hamas nei giorni successivi all’attacco.

L’Unità 8200 aveva un piano: identificare gli aggressori usando un sistema di riconoscimento facciale basato su intelligenza artificiale.

Un aiuto alle forze armate israeliane, a quel punto, è arrivato da Corsight, un’azienda con sede a Tel Aviv specializzata proprio nelle tecniche di riconoscimento facciale. Sul suo sito ufficiale, Corsight sostiene di utilizzare “sistemi di IA avanzati” a cui basta il 50% di un volto per stabilire a chi appartiene.

Ma questa tecnologia invasiva, utilizzata inizialmente sui terroristi responsabili degli attacchi del 7 ottobre 2023, oggi viene utilizzata regolarmente per sorvegliare la popolazione palestinese nella striscia di Gaza. Senza distinzione tra i militanti di Hamas e i civili. Il “programma” dell’intelligence, infatti, riguarderebbe chiunque abbia legami con Hamas.

È quello che sostiene il New York Times, che ha parlato con diversi membri dell’intelligence israeliana che intendono restare anonimi.

Le fonti del New York Times sostengono che il riconoscimento facciale utilizzato da Israele, talvolta, commette errori. Diversi civili sono stati associati, per errore, ad Hamas.

Sebbene il presidente di Corsight, Robert Watts, abbia dichiarato che la tecnologia dell’azienda sia affidabile anche in presenza di persone riprese “da angolazioni estreme, da droni e in condizione di luce scarsa”, i militari della Unit 8200 che hanno parlato con il New York Times sostengono che il riconoscimento facciale israeliano in realtà fa difficoltà con le immagini scure o di scarsa qualità.

Per esempio, quando la tecnologia di Corsight è stata usata per identificare i corpi dei militari israeliani morti nell’attacco del 7 ottobre 2023, non sempre ha dato risultati corretti. In quel caso, il volto di alcune persone decedute presentavano ferite.

Recentemente il riconoscimento facciale è stato utilizzato nel conflitto tra Ucraina e Russia.

Nei 50 giorni successivi all’invasione da parte delle forze armate di Putin, l’esercito ucraino ha usato il riconoscimento facciale offerto dall’azienda americana Clearview 8.600 volte per identificare i cadaveri dei soldati russi o i militari catturati. Questo dato, riportato dal Washington Post, viene confermato - in parte - da un video diffuso dalla IT Army, l’esercito di hacker volontari creato da Mykhailo Fedorov, ministro per la Transizione digitale in Ucraina.

Clearview AI, fondata da Hoan Ton-That nel 2017, è come un motore di ricerca. Ma invece di digitare una serie di parole, si carica la foto di qualcuno. A quel punto l’intelligenza artificiale esamina un database di 30 miliardi di immagini raccolte da siti e social network come Facebook.

Non appena emerge una corrispondenza perfetta, appaiono tutte le foto disponibili di quella persona, con i link alle pagine web in cui sono state trovate. E dunque a nomi - spesso cognomi - e dettagli della vita privata delle persone identificate.

In molti Paesi del mondo quello che fa Clearview AI è illegale. Non è consentito raccogliere e conservare i dati biometrici di un soggetto - tra cui la conformazione del volto - senza il suo consenso.

In Europa l’uso del riconoscimento facciale in tempo reale, sulla base di immagini acquisite da videocamere poste in luoghi pubblici per esempio, è stato vietato dal recente AI Act, l’insieme di norme approvate dal Parlamento Ue riguardanti lo sviluppo e l’utilizzo di sistemi di intelligenza artificiale all’interno degli Stati membri.

Eppure il riconoscimento facciale basato su IA sta dilagando nel resto del mondo. Alcuni aeroporti intendono introdurre questa tecnologia per rendere i controlli più veloci ed efficienti. Paesi come Cina e Russia, invece usano la tecnologia per tenere sotto controllo minoranze e dissidenti.

Il software di Clearview AI, negli Usa, secondo il suo fondatore Ton-That “è stato usato un milione di volte dalle forze dell’ordine”. Specialmente negli Stati Uniti.

Kashmir Hill, una giornalista del New York Times esperta di riconoscimento facciale che ha recentemente pubblicato un libro dal titolo “La tua faccia ci appartiene” (edito in Italia da Orville Press), ha raccontato come Clearview AI negli ultimi anni abbia causato l’arresto di sei cittadini statunitensi sulla base di un riconoscimento facciale errato. Erano tutti afroamericani.

Non è una coincidenza. Il riconoscimento facciale sbaglia da 5 a 10 volte di più quando esaminano una persona nera. Può succedere se gli algoritmi sono stati allenati su un set di dati in cui le persone nere sono scarsamente rappresentate, oppure se la tecnologia usata rispecchia i pregiudizi sociali.

Non va dimenticato, inoltre, che nel mondo circolano almeno 1 miliardo di smartphone dotati di riconoscimento facciale, vale a dire la tecnologia che consente di proteggere - e dunque sbloccare - il telefono utilizzando i dati biometrici del suo possessore.

Il mercato che ruota intorno al riconoscimento facciale, d’altronde, è in forte crescita. È passato dai 3 miliardi di dollari di ricavi del 2019 ai 5,7 miliardi di dollari che si prevede saranno incassati nel 2024 (dati Statista.com).