Intelligenza artificiale: CepItalia, una valutazione sulla strategia UE
E' dedicata alla strategia europea sull'intelligenza artificiale la prima pubblicazione in lingua italiana di CepItalia, la sede italiana del Centro Politiche Europee, specializzato in analisi della regolamentazione nell'Unione europea.
> Intelligenza artificiale e non solo: Bruxelles presenta il piano per il futuro digitale
La Commissione europea, infatti, ha recentemente proposto una propria strategia relativa allo sviluppo delle applicazioni che utilizzano l'intelligenza artificiale (IA), pubblicando un Libro bianco che mette in evidenza alcuni punti deboli dell’attuale legislazione e introduce tre principali opzioni normative per le azioni future in materia di IA.
Queste opzioni sono: uno schema di etichettatura volontario, requisiti settoriali per le autorità pubbliche e requisiti obbligatori per le applicazioni di IA ad alto rischio.
Attraverso un proprio "cepAdhoc", a cura di Alessandro Gasparotti e Lukas Harta, CepItalia ha valutato il Libro bianco della Commissione UE, esprimendo una propria opinione al riguardo.
Opzione 1: schema di etichettatura volontario
Questa opzione rispetterebbe la libertà d’impresa, perché le aziende sono libere di decidere se usare o meno l’etichetta. Tuttavia, questo potrebbe non essere sufficiente per affrontare, ad esempio, i problemi di sicurezza e di responsabilità.
Opzione 2: Requisiti settoriali per le pubbliche autorità
Questa opzione richiederebbe alle pubbliche autorità di pubblicare informazioni sull’efficacia delle applicazioni di IA che utilizzano. Questo è appropriato, in quanto le pubbliche autorità hanno un maggiore potere di ingerire nei diritti fondamentali delle persone di quanto non ne abbiano i soggetti privati.
Opzione 3: requisiti obbligatori basati sul rischio (risk based) per le applicazioni AI ad alto rischio
Questa opzione prevede la regolamentazione di applicazioni IA ad alto rischio sia nel settore privato che in quello pubblico. Senza una definizione precisa di alto rischio, le aziende saranno incentivate a minimizzare i possibili rischi della loro applicazione di IA in modo che i loro prodotti non debbano conformarsi alle norme per le applicazioni IA ad alto rischio.
o