Il riconoscimento facciale che pesca i dati dai social network

·3 minuto per la lettura

Dipartimenti di polizia, procure, ministeri e università di almeno 24 Paesi (25 con gli Stati Uniti) tra il 2018 e il 2020 avrebbero usato Clearview AI, un controverso software per il riconoscimento facciale venduto a forze di polizia e aziende private, secondo un’inchiesta BuzzFeed News basata sui dati della stessa compagnia reperiti tramite una fonte interna. Secondo tali dati, almeno 14mila ricerche sarebbero state effettuate utilizzando Clearview, e in molti casi senza che ci fosse un’autorizzazione dall’alto per l’utilizzo del software, né una supervisione da parte dei superiori.

Claerview avrebbe offerto trial gratuiti del programma a impiegati e singoli agenti nel corso di conferenze di presentazione di sistemi di sicurezza, scavalcando la catena di comando. Alcuni di essi lavorano o lavoravano in Paesi dove l’utilizzo di Clearview è stato bollato come illegale. Tra queste il Canada, dove il garante per la privacy ha stabilito all’inizio di quest’anno che Clearview ha “violato leggi federali e provinciali sulla privacy” e ha raccomandato alla compagnia di smettere di offrire servizi a clienti canadesi e cancellare tutte le immagini e i dati biometrici di cittadini canadesi.

In UE, le autorità stanno ancora valutando l’eventuale violazione delle nuove norme per la protezione dei dati personali (GDPR). Interpellato da BuzzFeed, il garante per la privacy olandese ha ammesso che “molto difficilmente l’uso di Clearview da parte delle forze dell’ordine può risultare legale”, e anche in Francia e Germania si sta indagando sull’utilizzo fatto del software nel Paese. Secondo i dati BuzzFeed, anche la Polizia Italiana avrebbe fatto uso del programma, svolgendo tra le 100 e le 500 ricerche. Gli agenti che usano Clearview possono scattare la foto a un sospetto o a una persona di interesse, caricarla sul programma e ricevere in pochi secondi possibili abbinamenti. Clearview sostiene che il suo software è il più accurato in circolazione, dato che si baserebbe su oltre 3 miliardi di immagini, ricavate senza consenso da siti web e piattaforme social media tra cui Instagram, Facebook, Twitter e LinkedIn. Chiunque quindi può essere schedato senza saperlo nel più grande database del mondo. Una volta appresi i metodi di Clearview tutti i grandi social network si sono mobilitati per bloccare lo “scraping” (pesca a strascico) di foto e dati personali, ma il danno ormai era fatto.

Il CEO e fondatore di origine australiana Hoan Ton-That, da parte sua, sostiene da sempre di agire “nei limiti del Primo Emendamento”, dato che tutti i dati utilizzati per creare il motore di ricerca di Clearview AI sono di dominio pubblico. Secondo l’azienda, il software ha un’accuratezza che si avvicina al 100%, ma studi indipendenti hanno sollevato dubbi in materia, in particolar modo per quanto riguarda la capacità di identificare correttamente le persone di etnia non caucasica - che sono solitamente tra i gruppi più criminalizzati e ipercontrollati dalle forze dell’ordine. Un difetto che condivide con la maggior parte dei sistemi di riconoscimento facciale, i cui algoritmi vengono “allenati” prevalentemente con fotografie di uomini bianchi, e che in passato hanno portato a scambi di persona e arresti ingiustificati soprattutto in città come Detroit in cui quasi l’80% della popolazione è di colore. Sia Amazon che IBM hanno abbandonato nel corso del 2020 i loro progetti in materia proprio a seguito di indagini che hanno messo a fuoco la distorsione alla base dei loro software.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli