Governare il futuro. L’irresistibile tentazione del riconoscimento facciale

·3 minuto per la lettura

Il 30 dicembre scorso l’FBI avrebbe concluso un contratto con ClearView AI, la società divenuta celebre in tutto il mondo per il suo servizio di riconoscimento facciale “intelligente” che consente un raffronto tra un’immagine, comunque e dovunque raccolta, e un suo sterminato database di foto di volti di persone in tutto il mondo.

Ci sarebbero circa dieci miliardi di volti di un numero imprecisato di persone nel database di ClearViewAI, dieci miliardi di foto che ci sarebbero finite all’esito di un’immensa pesca a strascico svolta dalla società nel mare dei social network globale.

Volti che ClearView ha associato a un nome, un cognome e altre informazioni semplicemente sulla base dei dati, esatti o inesatti che siano, raccolti sul web.

Si tratta di presupposti talmente tanto fragili sotto il profilo etico, giuridico e democratico che la società è, ormai da anni, nell’occhio del ciclone di decine di soggetti pubblici e privati che, a diverso titolo, difendono e promuovono i diritti fondamentali e la privacy.

Lo scorso 16 dicembre, la CNIL il Garante francese per la privacy, ha ordinato alla società di interrompere qualsiasi raccolta e trattamento dei dati in questione sul territorio francese.

E nella scorsa primavera, il Garante italiano, aveva avviato un’istruttoria nei confronti della stessa società.

Insomma, la circostanza che una delle più note e prestigiose – con tutte le sue luci e ombre – agenzie di intelligence americane, in un contesto di questo genere, non sappia resistere alla tentazione di avere a che fare con ClearViewAI, la dice lunga ma lunga davvero sull’irresistibile tentazione di ricorrere a soluzioni di riconoscimento facciale oggettivamente pericolose nella dinamica democratica specie quando basate sul ricorso a database di comparazione formati come la società in questione sembrerebbe aver formato il suo, semplicemente pescando a strascico e aggregando dati inesatti e pubblicati per ragioni completamente diverse da quelle per le quali vengono ora utilizzati.

Poi, per carità, l’esistenza di un contratto, peraltro da pochi spiccioli – 15 mila dollari – tra l’FBI e ClearViewAI non significa necessariamente che l’agenzia voglia utilizzare i servizi della società per la sua attività ma il sospetto è, almeno legittimo tanto più che, nell’ultimo anno, è fuor di dubbio che numerose altre agenzie pubbliche americane – e, purtroppo, non solo americane – lo hanno fatto.

I rischi connessi al ricorso a questo genere di soluzioni sono enormi.

Tanto per fare un paio di esempi: se qualcuno ha creato – per un motivo qualsiasi – un profilo su un social network a mio nome, usando la foto di un altro e l’altro in questione si ritrova coinvolto in un qualche crimine, io rischio di veder la polizia bussare alla mia porta e di essere trattato come un criminale pur non avendo fatto nulla.

Senza dire che gli algoritmi di riconoscimento facciale, allo stato, sono tecnologicamente immaturi e fallibili e, quindi, potrebbero suggerire che la foto di un criminale è sovrapponibile alla mia mentre non lo è.

Insomma, dobbiamo davvero trovare la forza di resistere all’irresistibile tentazione di ricorrere a queste soluzioni ricordandoci che, in democrazia, il fine non sempre giustifica i mezzi e questo è, decisamente, uno di quei casi.

Questo articolo è originariamente apparso su L'HuffPost ed è stato aggiornato.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli