Studio Usa: gravi errori con sistemi di riconoscimento facciale

Sam

Roma, 20 dic. (askanews) - I sistemi di riconoscimento facciale possono produrre risultati estremamente inaccurati, specialmente per i non bianchi. Lo sostiene uno studio del governo degli Stati Uniti pubblicato ieri che probabilmente solleverà nuovi dubbi sul crescente utilizzo di questa tecnologia legata all'intelligenza artificiale.

L'analisi del National Institute of Standards and Technology (NIST), centro di ricerca governativo, su dozzine di algoritmi di riconoscimento facciale ha mostrato tassi di "falsi positivi" per gli asiatici e gli afroamericani fino a 100 volte superiori rispetto ai bianchi. I ricercatori - spiega l'Agenzia France Press - hanno anche scoperto che due algoritmi hanno assegnato il genere sbagliato alle donne nere quasi il 35% delle volte.

Lo studio giunge in un momento in cui si sta diffondendo a macchia d'olio l'utilizzo delle tecniche di riconoscimento facciale per le forze dell'ordine, negli aeroporti, per la sicurezza delle frontiere, nel settore bancario, nel commercio al dettaglio, nelle scuole, ma anche per gli utilizzi più squisitamente personali come lo sblocco degli smartphone.

Alcuni attivisti e ricercatori sostengono che la possibilità di errore è troppo grande e che ciò potrebbero portare in carcere persone innocenti. Inoltre, si teme che la tecnologia possa essere utilizzata per creare archivi informatici che potrebbero essere hackerati o utilizzati in modo inappropriato.

Lo studio del NIST ha trovato sia "falsi positivi", in cui un individuo viene erroneamente identificato, sia "falsi negativi", in cui l'algoritmo non riesce ad abbinare accuratamente un volto a una persona specifica in un database.(Segue)