Negli ultimi anni diversi paesi e organismi governativi hanno adottato misure significative legate all’Intelligenza Artificiale. La proliferazione di queste iniziative riflette la crescente consapevolezza dei policy maker della necessità di regolamentare l’IA e di potenziare le capacità dei rispettivi paesi per sfruttarne il potenziale innovativo.
In Europa, l’AI Act occupa un ruolo centrale. Il suo iter legislativo era iniziato nel 2021, con l’obiettivo di diventare il primo regolamento completo sull’IA da parte di un importante regolatore. A luglio 2024, l’AI Act è stato pubblicato sulla Gazzetta Ufficiale Europea e entrerà in vigore a partire dal 2 agosto. Le nuove norme saranno gradualmente applicate, e chiunque voglia immettere nel mercato dell’UE sistemi o modelli IA, sia che operi all’interno dell’Unione, sia da un paese terzo, dovrà adeguarsi.
Quali iniziative stanno mettendo in campo gli altri paesi? E in che modo i loro regolamenti si differenziano da quello europeo?
Stati Uniti
Nel 2023, il dibattito sull’IA negli Stati Uniti è stato costante, culminando in un ordine esecutivo emanato dal presidente Joe Biden alla fine di ottobre. Questo provvedimento delinea le posizioni politiche e strategiche degli USA in materia di Intelligenza Artificiale, dando indirizzo alle politiche esecutive delle agenzie federali.
L’ordine esecutivo si concentra su vari aspetti, tra cui:
- Sicurezza e privacy. L’ordine esecutivo affida al NIST (National Institute of Standards and Technology) il compito di sviluppare delle linee guida per i sistemi di IA. Queste linee guida serviranno come riferimento per aziende e organizzazioni che sviluppano Intelligenza Artificiale. L’obiettivo è fornire un quadro che garantisca la sicurezza e l’affidabilità dei sistemi nel loro sviluppo e implementazione. Al NIST è anche chiesto di creare standard e procedure per i test di “red-teaming” (il “red-teaming” è un test strutturato per identificare potenziali difetti e vulnerabilità nei sistemi). Questi standard forniranno agli sviluppatori un metodo sistematico per testare rigorosamente i loro sistemi di IA. Inoltre, l’ordine richiede al Dipartimento di Giustizia di avviare un procedimento normativo per migliorare le valutazioni d’impatto sulla privacy. Questo aspetto è cruciale per garantire che l’implementazione dell’Intelligenza Artificiale rispetti e protegga adeguatamente la privacy dei cittadini. È importante notare che queste misure sono destinate principalmente all’uso civile e commerciale, escludendo le applicazioni di sicurezza nazionale.
- Protezione dei lavoratori e dei diritti civili. Al Dipartimento del Lavoro viene richiesto di sviluppare principi e best practice per i datori e condurre studi sugli effetti dell’IA sul mercato del lavoro. L’ordine esecutivo specifica, inoltre, che le agenzie federali devono garantire che le tecnologie IA non promuovano pregiudizi o discriminazioni prestando particolare attenzione ai settori in grado di esacerbare disuguaglianze, quali le assunzioni e l’accesso ai mercati immobiliari e finanziari.
- Promozione dell’innovazione e leadership globale. L’ordine punta a rafforzare la posizione degli Stati Uniti come leader mondiale nell’IA, promuovendo la collaborazione internazionale e l’adozione di standard comuni, basandosi sugli impegni volontari delle aziende tecnologiche americane.
Il 2024 sarà dedicato all’attuazione di queste misure, con particolare attenzione al nuovo AI Safety Institute. Operante sotto il NIST, questo istituto valuterà i rischi dei modelli di IA “di frontiera”, svilupperà standard di sicurezza e test, e fornirà ambienti di sperimentazione per la ricerca. L’approccio basato sulla valutazione dei rischi e la creazione di spazi di sperimentazione ricorda l’impostazione dell’AI Act europeo.
Regno Unito
Lo scorso 1 e 2 novembre 2023, il Regno Unito ha ospitato un importante evento internazionale, l’AI Safety Summit, il primo vertice globale sulla sicurezza dell’Intelligenza Artificiale. L’evento si è svolto a Bletchley Park, una tenuta a nord di Londra dal forte valore simbolico. Durante la seconda guerra mondiale, la tenuta ospitò Alan Turing, la sua squadra di programmatori e il primo computer digitale programmabile. A Bletchley Park si è riunito un gruppo di 100 persone tra leader mondiali, imprenditori del settore e rappresentanti della società civile per discutere temi legati alla sicurezza dell’IA.
Al termine delle due giornate, i rappresentanti dei paesi partecipanti, tra cui l’Italia, hanno sottoscritto la Dichiarazione di Bletchley sulla sicurezza dell’Intelligenza Artificiale, riconoscendo l’urgente necessità di comprendere e gestire collettivamente i potenziali rischi dell’IA. Il documento finale dell’AI Safety Summit evidenzia la consapevolezza dei rischi significativi che l’IA può comportare anche nella vita quotidiana. Pertanto, risulta necessario affrontare tematiche quali le questioni etiche, i pregiudizi, la protezione dei dati personali e la privacy. Tra i settori che suscitano maggiori preoccupazioni ci sono l’informatica e la biotecnologia, dove i rischi potenziali includono l’uso improprio degli strumenti con intenzioni malevole e problemi di controllo dovuti alla difficoltà di comprendere completamente le capacità dell’IA.
Per quanto riguarda la gestione interna, il governo britannico ha pubblicato la sua strategia nazionale sull’Intelligenza Artificiale nel 2021, delineando l’ambizione di rendere la Gran Bretagna una superpotenza nell’IA entro il prossimo decennio. Attualmente, il settore dell’IA inglese vale oltre 21 miliardi di dollari ed è il terzo più grande al mondo, dopo Stati Uniti e Cina. Nel 2023, con l’AI Regulation White Paper, il governo ha confermato l’intenzione di adottare un approccio normativo “leggero”, basato sulla definizione di principi anziché di nuovi obblighi di conformità. L’idea è che i regolatori esistenti interpretino e applichino questi principi nei rispettivi settori specifici. Questo approccio differisce da quello dell’UE, in quanto si adatta ai diversi settori invece di introdurre un insieme unico di regole.
Tuttavia, questo approccio normativo “leggero” potrebbe essere presto rivisto. Il partito laburista, sotto la guida del nuovo primo ministro Keir Starmer, intende adottare una politica più regolatoria. Starmer ha evidenziato la necessità di un quadro normativo più robusto per regolare le aziende che sviluppano i modelli di IA più avanzati. Allo stesso tempo, il primo ministro è determinato a non rinunciare all’innovazione. È stata infatti ribadita la volontà di instaurare partnership più solide tra industria e governo. Starmer ha anche riconosciuto l’importanza di affrontare le sfide etiche poste dall’IA, inclusi i rischi di disinformazione e la perdita di posti di lavoro. Il nuovo governo intende affrontare questi problemi introducendo regolamenti che garantiscano la trasparenza e la responsabilità nell’uso dell’IA, bilanciando l’innovazione con la protezione dei diritti dei lavoratori.
Cina
L’approccio legislativo e normativo della Cina all’Intelligenza Artificiale riflette l’ambizione di diventare “AI global leader” entro il 2030, un obiettivo dichiarato già nel 2017.
Dal 2017 ad oggi, è possibile identificare tre fasi principali nella strategia cinese sull’IA:
- La Cina ha inizialmente privilegiato l’autoregolamentazione del settore, un approccio che lasciava alle aziende e agli attori del mercato la responsabilità primaria di stabilire e seguire le proprie regole etiche e operative. Questa strategia è stata implementata attraverso documenti programmatici che promuovevano investimenti e opportunità di mercato. In questa fase, sebbene esistesse una certa supervisione sulla governance dell’IA da parte delle autorità, mancava ancora un quadro giuridico completo per il controllo e l’applicazione diretta delle norme da parte dello stato.
- Con il consolidamento del sistema di sicurezza informatica — un processo mediante il quale la Cina ha rafforzato e centralizzato le proprie politiche e leggi in questo ambito — si è passati all’istituzione di standard nazionali. Questi standard avevano lo scopo di incoraggiare il coinvolgimento attivo degli operatori del settore e di stabilire le fondamenta per le future regolamentazioni. Nel 2020 sono state pubblicate linee guida per la creazione di un sistema di standard per l’IA, che comprendeva varie componenti tecniche e principi normativi, inclusi sicurezza ed etica. Questi standard sono stati sviluppati attraverso un approccio collaborativo, coinvolgendo esperti del settore e del mondo accademico.
- Negli ultimi anni, le autorità di regolamentazione cinesi, guidate principalmente dalla Cyberspace Administration of China (CAC), hanno promulgato regole concrete per settori e tecnologie specifici. Queste includono disposizioni per la gestione delle raccomandazioni algoritmiche (Algorithmic Recommendation Regulation – 2022), la sintesi profonda (Deep Synthesis Regulation – 2022) e i servizi di IA generativa (Generative Al Regulation – 2023), con particolare attenzione ad aree come la moderazione dei contenuti, la proprietà intellettuale e la sicurezza informatica.
Nello specifico, l’Algorithmic Recommendation Regulation regola la diffusione di contenuti online, richiede la registrazione dei modelli di IA nel “Registro degli Algoritmi” cinese e garantisce agli utenti la trasparenza sugli algoritmi di raccomandazione, offrendo l’opzione di disattivare le raccomandazioni personalizzate. Il Deep Synthesis Regulation disciplina le tecnologie IA che producono contenuti sintetici, come i “deepfake”. Prevede l’obbligo per i fornitori di etichettare i contenuti generati dall’IA, prevenire la diffusione di informazioni proibite e introduce misure per la protezione della privacy. Il Generative AI Regulation si applica ai fornitori di servizi di IA generativa rivolti al pubblico. Prevede la registrazione dei modelli, la valutazione della sicurezza prima del rilascio, l’etichettatura dei contenuti generati dall’IA e l’uso di fonti di dati di addestramento legali.
La caratteristica distintiva di queste normative è la loro natura tecnica: non sono semplici linee guida giuridiche, ma regole specifiche da applicare prima della commercializzazione dei servizi. Questo approccio evidenzia l’attenzione particolare della Cina al dettaglio tecnico nella regolamentazione dell’IA.
In un articolo pubblicato sul Guardian la sinologa Manya Koetse offre un’analisi interessante delle differenze tra l’approccio cinese e quello occidentale all’IA. Secondo Koetse, la Cina si distingue per la ricerca di un equilibrio tra crescita economica e stabilità politica. Lo stretto controllo del governo centrale sugli sviluppi digitali permette di porre l’accento sulla sovranità informatica, sul sostegno collettivo e sul mantenimento dell’ “armonia nazionale”. Dall’altro lato, l’Occidente tende a privilegiare applicazioni dell’IA che promuovono l’individualismo, l’autonomia personale e la globalizzazione. Questo approccio genera una serie di dibattiti su come conciliare i diritti individuali con interessi collettivi più ampi. Koetse sottolinea che queste differenze rendono le applicazioni dell’IA sviluppate in un contesto non necessariamente adatte all’altro. Tuttavia, l’autrice non si ferma a una semplice contrapposizione. Invita invece a superare una visione competitiva, suggerendo che ci sia spazio per un apprendimento reciproco tra i due approcci.
India
Come sintetizzato da Oliver Patel, l’approccio dell’India all’IA può essere descritto con tre aggettivi: pro-innovazione, pro-business e non-interventista in termini di regolamentazione.
Nel 2018, il NITI Aayog (National Institution for Transforming India), un think tank del governo indiano, ha definito la India National AI Strategy. Questo documento delinea la strategia indiana per l’Intelligenza Artificiale, con l’obiettivo di sfruttare l’IA per la crescita economica, lo sviluppo sociale e l’inclusione. La strategia mira a fare dell’India il “garage” per le economie emergenti e in via di sviluppo, un’espressione che vuole richiamare un luogo dove le idee innovative prendono forma. In particolare, l’India vuole posizionarsi come un hub per lo sviluppo e il test di soluzioni di Intelligenza Artificiale che possono poi essere utilizzate dalle economie emergenti. Ciò significa che l’India intende diventare un punto di riferimento e supporto per altre nazioni in via di sviluppo, offrendo competenze, tecnologie e soluzioni innovative.
Nonostante la definizione di questa strategia, il governo indiano non intende implementare una regolamentazione completa sull’IA, come l’AI Act europeo, ma piuttosto una serie di leggi settoriali, come il Digital Personal Data Protection Act del 2023. Questo approccio è in linea con quanto sottolineato dall’India National AI Strategy, che evidenzia il ruolo critico del governo come catalizzatore. In questa veste, il governo si concentra sul supporto alle partnership, sull’accesso alle infrastrutture, sulla promozione dell’innovazione attraverso la ricerca e sulla creazione di domanda per soddisfare varie esigenze governative, piuttosto che su una regolamentazione stringente.
A marzo 2024, il Ministero indiano dell’Elettronica e della Tecnologia dell’Informazione ha emesso due “advisory“, all’inizio e a metà mese. Questi documenti, sebbene definiti consultivi, contengono indicazioni e incarichi specifici che i fornitori di servizi digitali e le piattaforme online devono rispettare. L’ultima versione riguarda l’uso e lo sviluppo di modelli di IA generativa e LLM e richiede agli intermediari di:
- impedire l’accesso a contenuti illegali, garantendo così l’uso corretto dei propri strumenti e la non condivisione di contenuti potenzialmente pericolosi da parte degli utenti;
- non permettere pregiudizi o minacce all’integrità del processo elettorale;
- diffondere modelli non affidabili solo se etichettati come tali, con chiara comunicazione agli utenti finali dei rischi;
- fornire un’informativa completa e trasparente agli utenti.
Le indicazioni fornite in questo advisory riflettono l’approccio dell’India nel campo dell’IA. Anziché stabilire una regolamentazione dettagliata, il governo sembra preferire un metodo più flessibile, che invita gli intermediari a essere proattivi. Questo orientamento mira a promuovere la trasparenza e la responsabilità nel settore, pur mantenendo un ambiente favorevole all’innovazione.
Canada
In Canada è stata presentata una proposta di legge, l’Artificial Intelligence and Data Act (AIDA), che mira a proteggere i cittadini canadesi e promuovere l’uso responsabile dell’IA. L’AIDA, introdotta nel giugno 2022, è ancora in fase di approvazione.
L’approccio è molto simile a quello dell’AI Act europeo, poiché classifica le applicazioni di Intelligenza Artificiale in base al livello di rischio e si propone di prevenire discriminazioni, dando il giusto spazio all’innovazione e agli attori virtuosi che rispettano gli standard definiti.
L’AIDA si basa sui principi internazionali più diffusi, fondandosi su normative esistenti e proponendosi di colmarne eventuali lacune, con particolare attenzione alle applicazioni e agli strumenti considerati ad alto impatto. Inoltre, prevede una serie di consultazioni con gli stakeholder, che saranno determinanti sia per la formulazione definitiva della legge, sia per la sua successiva attuazione.
Nel settembre 2023, il governo canadese ha pubblicato il Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems. Si tratta di un codice che le imprese possono sottoscrivere volontariamente, impegnandosi ad adottare misure specifiche per prevenire i rischi dell’AI generativa, anticipando così l’entrata in vigore dell’AIDA. Questo sistema è molto simile all’AI Pact europeo.
Nell’aprile 2024, il Primo Ministro Justin Trudeau ha annunciato un pacchetto di supporto da 2,4 miliardi di dollari per iniziative legate all’IA. Tra queste vi sono la creazione di un nuovo istituto per la sicurezza dell’IA, il Canadian AI Safety Institute, e l’Ufficio del Commissario per l’IA e i Dati, al fine di rafforzare l’applicazione dell’AIDA.
Brasile
Anche in Brasile il dibattito sulla regolamentazione dell’Intelligenza Artificiale è aperto. Il Senato ospiterà prossimamente una discussione sull’IA, che sarà anche l’occasione per esaminare un disegno di legge, il Brazil’s Proposed AI Regulation, che mira a definire confini e fornire linee guida su questo tema. Attraverso queste azioni si vogliono stabilire i passaggi per raggiungere un uso responsabile di questa tecnologia e allinearsi alle scelte che si stanno facendo in altri paesi. Non è chiaro quando entrerà in vigore la proposta di regolamento sull’IA e cosa comporterà il suo testo finale. La proposta deve ancora essere esaminata e votata sia dal Senato federale che dalla Camera dei rappresentanti, prima di essere approvata dal presidente, quindi i dettagli rimangono soggetti a modifiche.
Il Brasile è stato anche al centro di una notizia che ha scatenato un dibattito globale sull’uso dell’IA in ambito legislativo. Lo scorso ottobre è entrata in vigore una legge completamente scritta da ChatGPT. Questa norma, emanata dal Consiglio comunale di Porto Alegre, rispecchia totalmente il testo restituito dall’Intelligenza Artificiale. Inoltre, sembra che il risultato del prompt abbia portato a un livello di approfondimento e ad alcuni suggerimenti che non erano venuti in mente a chi ha formulato la richiesta. In seguito a questo episodio, il membro del consiglio e firmatario del provvedimento ha sottolineato quanto l’IA permetta di migliorare e velocizzare alcune attività notoriamente lunghe e complesse, inclusa la stesura di testi normativi.
Verso una regolamentazione globale
Gli approcci alla regolamentazione dell’Intelligenza Artificiale variano tra i diversi paesi. Sebbene la protezione degli utenti e il sostegno all’innovazione siano temi comuni alla maggior parte delle leggi, ogni nazione adotta strategie diverse, spesso guidate dalla volontà di diventare leader nello sviluppo tecnologico.
Nel contesto internazionale, lo scorso marzo, i membri delle Nazioni Unite hanno approvato una prima regolamentazione denominata “Seizing the Opportunities of Safe, Secure, and Trustworthy Artificial Intelligence Systems for Sustainable Development“. Questa iniziativa mira a colmare il divario digitale tra i paesi e a promuovere l’adozione di sistemi di IA sicuri, affidabili per accelerare i progressi verso il raggiungimento degli obiettivi dell’Agenda 2030 per lo sviluppo sostenibile.
La risoluzione delle Nazioni Unite rappresenta un passo significativo verso una regolamentazione globale che tuteli i diritti di tutti e, al contempo, mitighi i rischi associati all’uso degli strumenti di Intelligenza Artificiale.
Infine, lo scorso 1° aprile, gli Stati Uniti e il Regno Unito hanno firmato, dando seguito agli impegni assunti durante l’AI Safety Summit, il primo accordo bilaterale al mondo per la valutazione e lo studio dei rischi connessi all’IA, segnando un importante progresso nella cooperazione internazionale in questo campo.