È aperta fino all’11 dicembre 2024 la consultazione pubblica lanciata dall’Ufficio per l’Intelligenza Artificiale della Commissione europea (AI Office) per il rafforzamento della regolamentazione dell’Intelligenza artificiale (AI), all’interno del quadro dell’Artificial Intelligence Act (AI Act).
L’obiettivo della consultazione è infatti perfezionare la definizione di sistemi AI e precisare le proibizioni per determinati utilizzi, garantendo uno sviluppo e un impiego della tecnologia in linea con i diritti e la sicurezza dei cittadini europei.
Le linee guida saranno di supporto alle autorità nazionali competenti, ai fornitori e agli operatori, aiutandoli a rispettare le norme previste dall’AI Act su tali pratiche prima che le disposizioni entrino in vigore a partire dal 2 febbraio 2025.
Raccogliere esempi pratici per le nuove linee guida
La consultazione si rivolge a vari attori, inclusi i fornitori di tecnologie AI, le imprese, le autorità nazionali, il mondo accademico, gli Istituti di ricerca e la società civile.
I contributi ricevuti confluiranno nelle nuove linee guida della Commissione per la definizione dei sistemi di AI e per le pratiche di AI vietate dall’AI Act.
Il nuovo codice di condotta destinato ai modelli di AI generativa (GPAI) si concentrerà su aspetti come la trasparenza, la gestione del copyright e la mitigazione dei rischi, elementi cruciali per evitare l’abuso e garantire un uso etico della tecnologia.
L’AI Act stabilisce già i concetti legali relativi alla definizione di sistema di IA e alle pratiche proibite, ma questa consultazione mira a raccogliere ulteriori esempi pratici dalle parti interessate, così da arricchire le linee guida e offrire maggiore chiarezza sugli aspetti concreti e sui possibili casi d’uso.
Per maggiori dettagli e per partecipare alla consultazione vai a questo link.
Il contesto: gli obiettivi dell’AI Act
L’AI Act è stato concepito per stabilire un quadro giuridico uniforme nell’UE, orientato a regolamentare l’IA in modo trasparente e responsabile. Attraverso un approccio basato sul rischio, il regolamento mira a bilanciare l’innovazione tecnologica con la protezione delle libertà fondamentali:
- rischio minimo, che copre sistemi come filtri spam, senza obblighi regolatori specifici;
- rischio specifico di trasparenza, che richiede a sistemi come chatbot di informare gli utenti che stanno interagendo con una macchina;
- rischio elevato, per applicazioni come software medico o per il reclutamento, soggette a requisiti severi di sicurezza e supervisione umana;
- rischio inaccettabile, vietato per applicazioni che minacciano i diritti, come il “social scoring” o alcuni usi del riconoscimento biometrico.