Con il termine intelligenza artificiale (IA) ci si riferisce all'uso della tecnologia digitale per creare sistemi in grado di svolgere compiti per i quali è comunemente ritenuta necessaria l'intelligenza umana.
La disponibilità di grandi quantità di dati e nuovi software ha permesso di fare importanti passi avanti in poco tempo. Ad oggi infatti l'IA è già utilizzata in molte applicazioni quotidiane, come ad esempio:
- l'assistenza virtuale;
- le diagnosi mediche;
- le traduzioni automatiche;
- gli strumenti di navigazione;
- il controllo della qualità nella fabbricazione;
- la previsione delle catastrofi naturali.
L'IA può contribuire a un'economia più innovativa, efficiente, sostenibile e competitiva, migliorando allo stesso tempo la sicurezza, l'istruzione e l'assistenza sanitaria per i cittadini. Tuttavia, pur sostenendo lo sviluppo delle tecnologie di IA, il Consiglio riconosce i rischi potenziali e incoraggia un approccio etico e antropocentrico a tali tecnologie.
Quali regole ha stabilito l’Unione europea?
Il regolamento dell'Unione europea sull'IA è la prima normativa in assoluto sull'intelligenza artificiale, un quadro normativo che mira a garantire che i sistemi di IA siano sicuri e rispettino i valori e i diritti fondamentali dell'UE. Essendo il primo atto legislativo di questo tipo, può fissare uno standard globale per la regolamentazione dell'IA in altre giurisdizioni, promuovendo in tal modo a livello mondiale l'approccio europeo alle direttive in materia di tecnologia.
Il regolamento sull'IA affronta i rischi associati agli usi specifici dell'IA, classificandoli in quattro livelli e definendo di conseguenza norme diverse. Esse stabiliscono determinati obblighi per i fornitori di IA e disciplinano l'autorizzazione dei sistemi di IA nel mercato unico dell'UE.
1. Rischi minimi o nulli: la stragrande maggioranza dei sistemi di IA, i quali non sono disciplinati dal regolamento dell'UE sull'IA;
2. Rischi limitati: sistemi di IA soggetti a obblighi di trasparenza non particolarmente rigidi, come l'obbligo di rivelare che i contenuti sono generati ricorrendo all'IA;
3. Rischi elevati: ampia gamma di sistemi di IA ad alto rischio, soggetti a una serie di requisiti e obblighi per l'accesso al mercato dell'UE;
4. Rischi inaccettabili: sistemi vietati nell'UE. Tra questi utilizzi troviamo ad esempio la manipolazione cognitivo-comportamentale, la polizia predittiva, il riconoscimento delle emozioni sul luogo di lavoro e in ambito scolastico.
Gli obiettivi del regolamento sull'IA non sono solo quelli di migliorare la governance e l'effettiva applicazione della normativa vigente in materia di diritti fondamentali e sicurezza. L'intenzione dei legislatori dell'UE è anche quella di promuovere gli investimenti e l'innovazione nell'IA all'interno dell'UE e di agevolare lo sviluppo di un mercato unico per le applicazioni di IA.
Come si è arrivati a un regolamento?
- Ottobre 2020: il Consiglio europeo ha discusso della transizione digitale;
- Aprile 2021: La Commissione europea propone un regolamento sull'IA e un piano coordinato che comprende una serie di azioni congiunte per la Commissione e gli Stati membri;
- Dicembre 2022: Il Consiglio approva la sua posizione sul regolamento sull'IA, con l’aspirazione di un'IA sicura, lecita e affidabile che rispetti i diritti fondamentali;
- Dicembre 2023: Il Consiglio e il Parlamento raggiungono un accordo provvisorio sul regolamento sull'IA;
- Maggio 2024: Il regolamento è stato formalmente adottato dal Consiglio e dovrebbe applicarsi a partire dal 2026.
Per saperne di più clicca qui.