Menu di scelta rapida

News

Link alla versione stampabile della pagina corrente

Source: EC Audiovisual Service

13.08.2024 - Europe Direct

Il regolamento dell’UE sull’Intelligenza Artificiale

Con il termine intelligenza artificiale (IA) ci si riferisce all'uso della tecnologia digitale per creare sistemi in grado di svolgere compiti per i quali è comunemente ritenuta necessaria l'intelligenza umana.

La disponibilità di grandi quantità di dati e nuovi software ha permesso di fare importanti passi avanti in poco tempo. Ad oggi infatti l'IA è già utilizzata in molte applicazioni quotidiane, come ad esempio:

-          l'assistenza virtuale;

-          le diagnosi mediche;

-          le traduzioni automatiche;

-          gli strumenti di navigazione;

-          il controllo della qualità nella fabbricazione;

-          la previsione delle catastrofi naturali.

 

L'IA può contribuire a un'economia più innovativa, efficiente, sostenibile e competitiva, migliorando allo stesso tempo la sicurezza, l'istruzione e l'assistenza sanitaria per i cittadini. Tuttavia, pur sostenendo lo sviluppo delle tecnologie di IA, il Consiglio riconosce i rischi potenziali e incoraggia un approccio etico e antropocentrico a tali tecnologie.

Quali regole ha stabilito l’Unione europea?

Il regolamento dell'Unione europea sull'IA è la prima normativa in assoluto sull'intelligenza artificiale, un quadro normativo che mira a garantire che i sistemi di IA siano sicuri e rispettino i valori e i diritti fondamentali dell'UE. Essendo il primo atto legislativo di questo tipo, può fissare uno standard globale per la regolamentazione dell'IA in altre giurisdizioni, promuovendo in tal modo a livello mondiale l'approccio europeo alle direttive in materia di tecnologia.

Il regolamento sull'IA affronta i rischi associati agli usi specifici dell'IA, classificandoli in quattro livelli e definendo di conseguenza norme diverse. Esse stabiliscono determinati obblighi per i fornitori di IA e disciplinano l'autorizzazione dei sistemi di IA nel mercato unico dell'UE.

1.       Rischi minimi o nulli: la stragrande maggioranza dei sistemi di IA, i quali non sono disciplinati dal regolamento dell'UE sull'IA;

2.       Rischi limitati: sistemi di IA soggetti a obblighi di trasparenza non particolarmente rigidi, come l'obbligo di rivelare che i contenuti sono generati ricorrendo all'IA;

3.       Rischi elevati: ampia gamma di sistemi di IA ad alto rischio, soggetti a una serie di requisiti e obblighi per l'accesso al mercato dell'UE;

4.       Rischi inaccettabili: sistemi vietati nell'UE. Tra questi utilizzi troviamo ad esempio la manipolazione cognitivo-comportamentale, la polizia predittiva, il riconoscimento delle emozioni sul luogo di lavoro e in ambito scolastico.

Gli obiettivi del regolamento sull'IA non sono solo quelli di migliorare la governance e l'effettiva applicazione della normativa vigente in materia di diritti fondamentali e sicurezza. L'intenzione dei legislatori dell'UE è anche quella di promuovere gli investimenti e l'innovazione nell'IA all'interno dell'UE e di agevolare lo sviluppo di un mercato unico per le applicazioni di IA.

Come si è arrivati a un regolamento?

-          Ottobre 2020: il Consiglio europeo ha discusso della transizione digitale;

-          Aprile 2021: La Commissione europea propone un regolamento sull'IA e un piano coordinato che comprende una serie di azioni congiunte per la Commissione e gli Stati membri;

-          Dicembre 2022: Il Consiglio approva la sua posizione sul regolamento sull'IA, con l’aspirazione di un'IA sicura, lecita e affidabile che rispetti i diritti fondamentali;

-          Dicembre 2023: Il Consiglio e il Parlamento raggiungono un accordo provvisorio sul regolamento sull'IA;

-          Maggio 2024: Il regolamento è stato formalmente adottato dal Consiglio e dovrebbe applicarsi a partire dal 2026.

Per saperne di più clicca qui.