
L'UE non vuole che le IA ci spiino: saranno classificate in 4 livelli di rischio
La Commissione Europea ha presentato una proposta di regolamentazione dei sistemi di Intelligenza Artificiale per uso civile (esclusi quindi quelli a fini militari), che andrebbero classificati in quattro livelli di rischio: minimo, limitato, alto e inaccettabile. Questi ultimi in particolare sono da considerarsi banditi da tutto il territorio dell'Unione Europea, ed anche al di fuori di esso nel caso abbiano ripercussioni sui cittadini UE.
Quali sono quindi questi sistemi inaccettabili? Quelli che rappresentino "una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone, compresi i sistemi che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l'assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un punteggio sociale".
Quelli che rientrino invece nel rischio alto, saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato. Rientrano in questa categoria i sistemi di intelligenza artificiale per la sorveglianza di massa, tramite metodi di identificazione biometrica remota come il riconoscimento facciale.
Sono pertanto proibiti del tutto nelle aree pubbliche, con la possibilità di eccezioni, "rigorosamente definite e regolamentate, con limiti di tempo, portata geografica e banche dati ricercate", ai fini della sicurezza pubblica e per le quali è necessaria l'autorizzazione da parte di un organo giudiziario. Alcuni esempi di eccezioni sono la ricerca di minori scomparsi, la prevenzione del terrorismo, la ricerca di colpevoli di gravi reati.