Governare il futuro. L'intelligenza artificiale di Facebook confonde persone di colore con primati

·2 minuto per la lettura

Forse potrebbe interessarti questo video sui primati.

Diceva così il suggerimento proposto, nei giorni scorsi, da Facebook a alcuni utenti che l’intelligenza artificiale di Menlo Park aveva ritenuto interessati al mondo delle scimmie.

Peccato solo che i protagonisti del video in questione non fossero scimmie ma persone di colore.

Immediate le scuse dal quartier generale del social network più popolare del mondo a chiunque avesse ricevuto il suggerimento in questione.

E immediata anche la sospensione del sistema di suggerimenti diversamente intelligenti autore dell’errore.

Non si tratta, peraltro, della prima volta che accade perché un incidente – se si può chiamare così quanto accaduto pur trattandosi di donne e uomini scambiati per animali – analogo era accaduto qualche anno fa, era il 2015, a Google il cui algoritmo di catalogazione delle fotografie aveva confuso le persone di colore per dei gorilla.

Ed è, anzi, proprio questo precedente episodio a lasciare senza parole oggi davanti al nuovo incidente.

Possibile che in oltre un lustro, giganti del calibro di Google e Facebook non siano riusciti a far tesoro di errori tanto gravi già commessi?

Possibili che i bias che affliggono i sistemi di intelligenza artificiale siano così tanto radicati?

E se è così non dovremmo chiederci perché lo sono?

Colpa degli algoritmi?

Colpa dei dati con i quali vengono istruiti?

Colpa della società così tanto intrisa di questo genere di bias e discriminazione da contaminare anche le intelligenze artificiali che produce?

La risposta è difficile, certamente, non a portata di questo caffè del mattino ma va cercata e trovata e il problema va risolto e in fretta prima che le nuove intelligenze artificiali mietano centinaia di milioni di vittime ledendone con la leggerezza propria delle cose immateriali l’identità personale.

Perché lo avrà anche suggerito “solo” – si fa per dire – un algoritmo ma per un uomo protagonista di un video del quale sente raccomandare la visione a centinaia di milioni di persone come di un video che ha per protagonista una scimmia non deve essere una cosa da poco.

Cosa fare per scongiurare il rischio che accada di nuovo?

Perché se succede su uno dei servizi di punta di Facebook oltre cinque anni dopo che era accaduto su un servizio di punta di Google il dubbio che stia accadendo su chissà quanti altri servizi senza che, tuttavia, l’incidente assurga agli onori della cronaca è elevato.

Servono regole capaci di garantire – come, peraltro propone di fare la Commissione europea nella proposta di regolamento sull’intelligenza artificiale presentata nei mesi scorsi – una sorta di valutazione di impatto etico prima della messa in circolazione di un sistema di intelligenza artificiale.

Certo la partita non è facile.

Ma bisogna provarci.

Questo articolo è originariamente apparso su L'HuffPost ed è stato aggiornato.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli