Tech

Con l'arrivo dell'EU AI Act quest'estate, il blocco delinea il suo piano per la governance dell'IA

La Unione Europea ha svelato la struttura del nuovo Ufficio per l'IA, l'organo di costruzione dell'ecosistema e di vigilanza che sta venendo istituito nell'ambito del AI Act del blocco. Si prevede che il quadro normativo basato sul rischio per l'intelligenza artificiale entrerà in vigore prima della fine di luglio, a seguito dell'approvazione definitiva del regolamento da parte dei legislatori dell'UE la scorsa settimana.

L'Ufficio per l'IA svolgerà un ruolo chiave nel plasmare l'ecosistema europeo dell'IA nei prossimi anni. Il blocco intende che l'organo svolga un duplice ruolo, sia nel contribuire a regolare i rischi legati all'IA che nel favorire l'adozione e l'innovazione. Si spera anche che l'Ufficio per l'IA possa esercitare una maggiore influenza a livello globale, poiché molti paesi e giurisdizioni stanno cercando di capire come affrontare la governance dell'IA.

La struttura dell'Ufficio per l'IA dell'UE svelata mercoledì - che, ha detto il blocco, entrerà in vigore il 16 giugno - riflette le grandi ambizioni qui: L'organo sarà composto da cinque unità; alcune concentrate sull'applicazione delle regole e sull'interrogazione dei rischi, mentre altre sono destinate a favorire l'innovazione e l'adozione dell'IA, nonché a lavorare per la collaborazione internazionale sui approcci all'IA.

Ecco una panoramica su su cosa si concentrerà ciascuna delle cinque unità dell'Ufficio per l'IA dell'UE:

Un'unità affronterà "regolazione e conformità", compresa la cooperazione con gli Stati membri dell'UE per sostenere l'applicazione e l'attuazione armonizzata del AI Act. "L'unità contribuirà a indagini e possibili violazioni, infliggendo sanzioni", ha affermato la Commissione, che intende che l'Ufficio svolga un ruolo di supporto per gli organi di governance a livello nazionale dell'UE che il legge istituirà anche per far rispettare l'ampia portata del regime.

Un'altra unità dell'Ufficio per l'IA si occuperà della "sicurezza dell'IA". La Commissione ha detto che questo si concentrerà sull'‘identificazione dei rischi sistematici dei modelli generici molto capaci, possibili misure di mitigazione e approcci di valutazione e test' - con modelli generici (GPAI) che si riferiscono all'ultima ondata di tecnologie di IA generativa come i modelli fondamentali che sottendono strumenti come ChatGPT. Sebbene l'UE abbia detto che l'unità si occuperà principalmente dei GPAI con il cosiddetto "rischio sistematico" - che la legge definisce come modelli addestrati sopra una certa soglia di calcolo.

L'Ufficio per l'IA avrà la responsabilità di far rispettare direttamente le regole del AI Act per i GPAI - quindi si prevede che le unità pertinenti conducano test e valutazioni dei GPAI, nonché utilizzino i poteri per richiedere informazioni alle giganti dell'IA per consentire la supervisione.

Il lavoro dell'unità di conformità dell'Ufficio per l'IA includerà anche la produzione di modelli che ci si aspetta che i GPAI utilizzino, ad esempio per riassumere eventuali materiali protetti da copyright utilizzati per addestrare i loro modelli.

Anche se avere un'unità dedicata alla sicurezza dell'IA sembra necessario per dare pieno effetto alle regole del GPAI, sembra anche inteso a rispondere agli sviluppi internazionali nella governance dell'IA dal momento in cui la legge dell'UE è stata redatta - come l'annuncio Regno Unito e degli Stati Uniti dei rispettivi istituti sulla sicurezza e il rischio dell'IA lo scorso autunno. La grande differenza, però, è che l'unità di sicurezza dell'IA dell'UE è armata di poteri legali.

Una terza unità dell'Ufficio per l'IA si dedicherà a ciò che la Commissione chiama "Eccellenza in AI e Robotica", tra cui il supporto e il finanziamento della Ricerca e sviluppo sull'IA. La Commissione ha detto che questa unità collaborerà con la sua precedente iniziativa "GenAI4EU", che mira a stimolare lo sviluppo e l'adozione dei modelli di IA generativa - anche aggiornando la rete di supercomputer europei per supportare la formazione dei modelli.

Un'altra unità è focalizzata su "AI for Social Good". La Commissione ha dichiarato che questa si occuperà di "progettare e attuare" il coinvolgimento internazionale dell'Ufficio per progetti di grandi dimensioni in cui l'IA potrebbe avere un impatto sociale positivo - come in settori come la modellazione meteorologica, le diagnosi del cancro e i gemelli digitali per la ricostruzione artistica.

Lo scorso aprile, l'UE ha annunciato che una collaborazione pianificata con gli Stati Uniti sull'IA, sulla sicurezza e sulla ricerca dei rischi, includerà anche un focus sul lavoro congiunto sugli utilizzi dell'IA per il bene pubblico. Quindi, questa componente dell'Ufficio per l'IA era già delineata.

Infine, una quinta unità affronterà "Innovazione e Coordinamento delle Politiche sull'IA". La Commissione ha detto che il suo ruolo sarà quello di garantire l'esecuzione della strategia sull'IA del blocco - compreso "monitorare le tendenze e gli investimenti, stimolare l'adozione dell'IA attraverso una rete di Hub Europei di Innovazione Digitale e la creazione di Fabbriche di IA, e favorire un ecosistema innovativo supportando sandbox regolatori e test nel mondo reale".

Avere tre delle cinque unità dell'Ufficio per l'IA dell'UE che lavorano - in termini generali - sull'adozione, gli investimenti e la costruzione dell'ecosistema dell'IA, mentre solo due si occupano della conformità regolamentare e della sicurezza, sembra inteso a offrire ulteriori rassicurazioni all'industria che la rapidità dell'UE nella produzione di un libro di regole per l'IA non è contro l'innovazione, come hanno lamentato alcuni sviluppatori di IA locali. Il blocco sostiene anche che la fiducia favorirà l'adozione dell'IA.

La Commissione ha già nominato i capi di diverse unità dell'Ufficio per l'IA - e il capo generale dell'Ufficio stesso - ma il capo dell'unità di sicurezza dell'IA deve ancora essere nominato.

L'Ufficio per l'IA è stato istituito con una decisione della Commissione lo scorso gennaio e ha iniziato i lavori preparatori - come decidere sulla struttura - alla fine di febbraio. È inserito nel dipartimento digitale dell'UE, il DG Connect - attualmente guidato dal commissario del mercato interno, Thierry Breton.

L'Ufficio per l'IA avrà alla fine un organico di più di 140 persone, tra cui personale tecnico, avvocati, politologi ed economisti. Mercoledì l'UE ha detto che finora sono stati assunti circa 60 dipendenti. Pianifica di aumentare le assunzioni nei prossimi due anni, man mano che la legge verrà implementata e diventerà pienamente operativa. Il AI Act adotta un approccio graduale alle regole, con alcune disposizioni che si applicano sei mesi dopo l'entrata in vigore della legge, mentre altre hanno un periodo di attuazione più lungo di un anno o più.

Un ruolo chiave imminente per l'Ufficio per l'IA sarà la stesura di Codici di Pratica e migliori pratiche per gli sviluppatori di IA - che l'UE vuole svolgano un ruolo di tappa mentre il libro di regole legale viene introdotto gradualmente.

Un funzionario della Commissione ha detto che il Codice è previsto di essere lanciato presto, una volta che il AI Act entrerà in vigore più avanti quest'estate.

Altri compiti per l'Ufficio per l'IA includono il mantenimento di contatti con una serie di altri forum e organi di esperti che il AI Act istituirà per collegare l'approccio della governance e della costruzione dell'ecosistema dell'UE, tra cui il Consiglio Europeo sull'Intelligenza Artificiale, un organo composto da rappresentanti degli Stati membri; un panel scientifico di esperti indipendenti; e un forum consultivo più ampio composto da parti interessate tra cui industria, startup e PMI, accademici, think tank e società civile.

“Il primo incontro del Consiglio sull'IA dovrebbe svolgersi entro la fine di giugno,” ha osservato la Commissione in un comunicato stampa, aggiungendo: “L'Ufficio per l'IA sta preparando linee guida sulla definizione dei sistemi di IA e sulle proibizioni, entrambe dovute sei mesi dopo l'entrata in vigore del AI Act. L'Ufficio si sta anche preparando a coordinare la stesura dei codici di pratica per gli obblighi dei modelli di IA generici, dovuti 9 mesi dopo l'entrata in vigore.”

Related Articles

Back to top button