L’Artificial Intelligence Act porrà un limite all'intelligenza artificiale o alle imprese?

·2 minuto per la lettura

La proposta di regolamento sull'Intelligenza Artificiale in discussione alla Ue, ovvero l’Artificial Intelligence Act (AIA), definisce varie aree di intervento sui sistemi AI: “applicazioni proibite perché causa di rischi insopportabili per i diritti e le libertà fondamentali; applicazioni ad alto rischio (non proibite ma sottoposte a specifiche condizioni per gestire i rischi); applicazioni a rischio limitato e altre applicazioni a rischio trascurabile. La lista dei sistemi AI vietati include pratiche manipolative online che producono danni fisici o psicologici agli individui o sfruttano la loro vulnerabilità sulla base dell’età o della disabilità; il social scoring che produce effetti dannosi sproporzionati o decontestualizzati; e sistemi di identificazione biometrica utilizzati dalle autorità di polizia negli spazi pubblici (quando il loro uso non è strettamente necessario o quando il rischio di effetti dannosi è troppo alto)”. Per la prima volta, i regolatori europei tentano di definire un confine o un limite che non dovrebbe essere superato quando si impiegano servizi o prodotti basati sull’AI nella società. “A differenza dei sistemi AI proibiti, i sistemi AI classificati come “ad alto rischio” non sono vietati di default, ma soggetti a diversi obblighi di conformità. Questi obblighi includono, tra gli altri, un piano di gestione del rischio, una certificazione di conformità, un piano di gestione dei dati, la supervisione umana”.

Ed è soprattutto in questa fascia di rischio che l'intelligenza artificiale in Europa potrebbe finire per costare all'economia dell'UE 31 miliardi di euro nei prossimi cinque anni, secondo un rapporto del Center for Data Innovation pubblicato domenica. L'Artificial Intelligence Act, che dovrebbe diventare la regolamentazione più restrittiva al mondo sull'intelligenza artificiale, secondo report americano “Non solo limiterà lo sviluppo e l'uso dell'IA in Europa, ma imporrà costi significativi alle imprese e ai consumatori dell'UE”. Il Center for Data Innovation ritiene che una piccola o media impresa con un fatturato di 10 milioni di euro dovrebbe sostenere costi di conformità fino a 400mila euro qualora decidesse di implementare proprio un sistema di intelligenza artificiale ad alto rischio. Una definizione che copre un'ampia gamma di potenziali applicazioni, “dalle infrastrutture critiche all'istruzione e alla formazione professionale, sottoponendole a una serie di requisiti prima che le aziende possano portarle sul mercato”.

Gli oneri di conformità potrebbero arrivare a costare alle imprese europee 10,9 miliardi di euro all'anno entro il 2025, o 31 miliardi di euro nei prossimi cinque anni: “La Commissione ha ripetutamente affermato che la bozza di legislazione sull'IA sosterrà la crescita e l'innovazione nell'economia digitale europea, ma un'analisi economica realistica suggerisce che l'argomento” è quantomeno discutibile. Va anche detto che il Center for Data Innovation fa parte della Information Technology and Innovation Foundation, associazione senza scopo di lucro sostenuta anche da Amazon, Apple e Microsoft.

Il nostro obiettivo è creare un luogo sicuro e coinvolgente in cui gli utenti possano entrare in contatto per condividere interessi e passioni. Per migliorare l’esperienza della nostra community, sospendiamo temporaneamente i commenti sugli articoli