Il 30 ottobre 2023, la Commissione europea ha accolto con favore gli accordi dei leader del G7 sui Principi Guida Internazionali relativi all’Intelligenza Artificiale e un Codice di Condotta Volontario per gli sviluppatori dell’IA nel contesto del Hiroshima AI Process. I principi e il Codice di condotta integreranno, a livello internazionale, le norme legalmente vincolanti che i co-legislatori dell’UE stanno momentaneamente finalizzando all’interno del EU Artificial Intelligence Act.
Le proposte dell’EU AI Act garantiranno la sicurezza e i diritti fondamentali delle persone e dei business, rafforzando nel mentre la diffusione, gli investimenti e l’innovazione nell’intelligenza artificiale in tutta Europa. Inoltre, offrirà norme legalmente vincolanti, basate sul rischio, per i sistemi di IA che verranno lanciati sul mercato o messi in circolazione nel mercato dell’Unione.
Il G7 Hiroshima Artificial Intelligence Process è stato istituito durante il Summit del G7 a maggio 2023 per promuovere le barriere di protezione dai sistemi avanzati di intelligenza artificiale a livello globale. Questa iniziativa forma parte di un più ampio range di dibattiti internazionali sulle barriere dell’IA che includono l’Organisation for Economic Co-operation and Development; il Global Partnership on Artificial Intelligence; l’EU-U.S. Trade and Technology Council e il EU’s Digital Partnerships.
Sin dal primo annuncio di voler lavorare su un Codice di condotta fatto durante il TTC Ministerial a maggio 2023, la Commissione ha lavorato attivamente con i partner internazionali chiave del G7 al fine di sviluppare dei principi e un Codice di condotta sull’IA.
Gli undici principi adottati dai leader delle sette nazioni che insieme all’UE formano il G7, offrono una serie di indicazioni per le organizzazioni che sviluppano, distribuiscono e usano sistemi avanzati di intelligenza artificiale per promuovere la sicurezza e l’affidabilità della tecnologia, includendo anche ulteriori obblighi. Essi, inoltre, sono serviti come base per stipulare il Codice di condotta che dà indicazioni più pratiche e dettagliate per le organizzazioni che sviluppano l’IA, promuovendone anche globalmente una gestione responsabile.
Infine, entrambi i documenti verranno revisionati e aggiornati se necessario, anche attraverso l’aiuto di una consultazione inclusiva multipla degli stakeholder, per far sì che rimangano idonei allo scopo e siano reattivi di fronte al rapido evolversi della tecnologia.
Scopri di più qui.