L’AI Act, il regolamento europeo sull’Intelligenza Artificiale, ha attirato grande attenzione negli scorsi mesi. Con la sua entrata in vigore, avvenuta il 1° agosto 2024, l’interesse si è spostato su questioni operative e concrete: come garantire la conformità alla normativa e quale impatto avrà sul mondo organizzativo e sulla gestione delle risorse umane. Comprendere a fondo il regolamento è diventato quindi una necessità cruciale per diverse aziende e professionisti.
Per orientarci in questo complesso scenario normativo, abbiamo intervistato Silvia Ciucciovino, professoressa ordinaria di diritto del lavoro presso l’Università degli Studi Roma Tre e autrice del saggio Risorse umane e Intelligenza Artificiale alla luce del regolamento (UE) 2024/1689: tra norme legali, etica e codici di condotta.
La Professoressa Ciucciovino studia da anni l’intersezione tra il diritto del lavoro e le nuove tecnologie, con un focus particolare su Blockchain, Big Data e Intelligenza Artificiale. È inoltre fondatrice di LabChain, un centro di ricerca interuniversitario di studi avanzati dedicato a blockchain, innovazione e politiche del lavoro.
AI Act e mondo del lavoro
Come si inserisce l’AI Act nel contesto del mondo del lavoro? Quali aspetti sono più rilevanti per chi si occupa di gestione delle risorse umane?
Per comprendere l’impatto dell’AI Act sul mondo del lavoro e la gestione delle risorse umane, è fondamentale partire da alcune premesse. Inizialmente, il regolamento europeo considerava tutti i sistemi di Intelligenza Artificiale applicati alle risorse umane come ad alto rischio. Questo significava che qualsiasi utilizzo di questi sistemi, dalla selezione del personale alla gestione interna, fosse automaticamente sottoposto a requisiti molto stringenti. Tuttavia, nella versione finale, questa impostazione è stata rivista. Oggi, il rischio viene valutato considerando due fattori principali: se il sistema incide significativamente sulle decisioni che riguardano il personale o se comporta potenziali danni significativi alla salute, alla sicurezza o ai diritti fondamentali delle persone.
La classificazione “ad alto rischio” non è quindi automatica, ma dipende dalla configurazione e dall’utilizzo concreto del sistema, per cui non tutte le applicazioni di IA nel settore delle risorse umane rientrano necessariamente in questa categoria.
Ad esempio, contrariamente a quanto si potrebbe pensare, non tutti i sistemi completamente automatizzati sono considerati ad alto rischio: se un sistema opera autonomamente ma non incide direttamente sulle decisioni o non minaccia i diritti delle persone, non è classificato come rischioso. Al contrario, le applicazioni che comportano la profilazione delle persone fisiche rientrano sempre nella categoria ad alto rischio. Il Regolamento vieta del tutto le applicazioni di IA che rilevano le emozioni sul luogo di lavoro e quelle legate al “social scoring“, ossia sistemi che valutano o classificano le persone in base al loro comportamento sociale o ad altre caratteristiche personali per influenzarne il trattamento.
Un altro aspetto cruciale dell’AI Act riguarda la sua base giuridica, che si focalizza sulla sicurezza del prodotto piuttosto che sui diritti dei lavoratori. L’obiettivo principale dell’AI Act è garantire che sul mercato vengano immessi prodotti sicuri. Questo approccio spiega perché il regolamento non si occupa direttamente (se non marginalmente) delle dinamiche sociali o delle tutele lavoristiche, che invece rimangono regolate da altre normative.
A tal proposito, è importante evidenziare che l’AI Act non opera in un vuoto normativo. Normative come il GDPR, che protegge i dati personali, e quelle nazionali sul diritto del lavoro, come la legge italiana sulla trasparenza algoritmica, continuano a fornire garanzie fondamentali.
In definitiva, l’AI Act rappresenta un passo avanti importante nel regolamentare le tecnologie basate sull’Intelligenza Artificiale, ma da solo non basta a coprire tutti gli aspetti legati alla tutela dei lavoratori. Per questo, è necessario unire le diverse fonti normative, integrandole in modo efficace per garantire sicurezza tecnologica e rispetto dei diritti sociali. Questo equilibrio è cruciale per evitare che norme troppo rigide ostacolino l’innovazione, soprattutto in un contesto competitivo globale.
Affrontare la complessità normativa: il ruolo dei codici di condotta e l’approccio “dal basso”
Come possono le aziende orientarsi all’interno della complessità normativa introdotta dall’AI Act? Quali strumenti o approcci ritiene più utili?
Per destreggiarsi tra diverse fonti e norme, uno strumento che ritengo molto utile per le aziende e i gestori delle risorse umane è l’adozione di codici di condotta. Questi strumenti volontari possono semplificare e adattare l’applicazione del regolamento europeo a contesti specifici. I codici di condotta aiutano a creare un quadro di regole chiaro e condiviso, rendendo più semplice l’adozione e l’interazione con i sistemi di Intelligenza Artificiale, anche per i lavoratori, che in questo modo possono sentirsi più sicuri e informati.
Un esempio significativo di intersezione normativa riguarda il rapporto con il GDPR, che introduce il tema delle responsabilità. Nel caso del GDPR, il datore di lavoro o il titolare del trattamento è direttamente responsabile della protezione dei dati dei dipendenti. L’AI Act, invece, si concentra sulla sicurezza del prodotto, attribuendo le principali responsabilità al produttore. Tuttavia, nonostante questo spostamento di focus, l’AI Act assegna ai datori di lavoro un obbligo molto importante: quello di garantire l’alfabetizzazione e la formazione dei propri dipendenti sull’uso dei sistemi di Intelligenza Artificiale adottati.
Questa responsabilità, introdotta in una fase successiva della normativa, rappresenta un principio generale che si applica a tutti i sistemi, indipendentemente dal loro livello di rischio. In pratica, significa che il datore di lavoro deve mettere i lavoratori in condizione di comprendere e utilizzare correttamente i sistemi, fornendo loro le informazioni e le competenze necessarie. Tutto ciò si inserisce però in una catena di responsabilità che può generare complessità: in che misura il datore di lavoro può rivalersi sul produttore se qualcosa non dovesse funzionare come previsto? Sarà necessario valutare le specificità di ogni caso.
Per affrontare queste sfide, ritengo fondamentale adottare un approccio che parta dal basso, dallo studio dei casi concreti. Quando come azienda so quali sono i sistemi di IA che intendo adottare, posso ricostruire da lì i problemi, le preoccupazioni, identificare le regole più adeguate da applicare e tarare la formazione. In questo contesto, i codici di condotta possono svolgere un ruolo chiave, agevolando l’adozione dell’Intelligenza Artificiale in modo responsabile e sostenibile.
Ad esempio, una distinzione fondamentale da considerare è quella tra sistemi di Intelligenza Artificiale come strumenti di lavoro per il lavoratore e sistemi applicati direttamente alla gestione dei lavoratori, quindi come strumenti di esercizio dei poteri datoriali. Nel primo caso, l’IA supporta il lavoratore nei suoi compiti: si pensi, ad esempio, a un dipendente che si interfaccia con un sistema di IA per gestire una parte della catena produttiva. Qui, l’IA diventa uno strumento che il lavoratore utilizza, con responsabilità legate alla salute, alla sicurezza, alle competenze adeguate e all’attribuzione di responsabilità connesse all’uso improprio della IA.
Nel secondo caso, invece, l’IA viene applicata direttamente alla gestione del personale, influenzando i compiti e i carichi di lavoro dei lavoratori o persino l’assunzione di decisioni fondamentali come assunzioni o licenziamenti. Questo scenario pone un diverso ordine di preoccupazioni, poiché il sistema non è solo un supporto, ma diventa uno strumento di esercizio del potere direttivo o di controllo nonché di gestione del personale con implicazioni sistemiche e potenzialmente molto significative per i diritti del lavoratore.
Dai principi etici all’applicazione pratica: formazione e coinvolgimento dei sindacati
Si tratta di un cambiamento di prospettiva molto interessante. Di solito, di fronte a una normativa, ci si aspetta istruzioni precise e indicazioni su cosa fare. Con questo regolamento, invece, sembra più utile adottare un approccio che parta dallo studio dei casi concreti e dalle specifiche situazioni aziendali.
Questo si spiega considerando la base giuridica dell’AI Act, focalizzata sul prodotto. Nel regolamento europeo troviamo principi etici fondamentali, come la dignità, la sicurezza, la protezione dei diritti fondamentali, la spiegabilità delle decisioni algoritmiche e l’antropocentrismo, indicati però come linee guida etiche e non come obblighi giuridici vincolanti. Potrebbe sembrare un paradosso, ma non lo è: sebbene questi principi siano centrali, a livello europeo nell’AI Act non sono stati tradotti in regole vincolanti, lasciando agli Stati membri, ai produttori e agli utilizzatori la responsabilità di declinarli e concretizzarli.
Questa impostazione responsabilizza notevolmente sia le imprese produttrici sia gli utilizzatori, ma offre anche un’opportunità per il coinvolgimento di diversi stakeholder, inclusi i sindacati. Lo stesso AI Act prevede un elemento interessante: per i sistemi di Intelligenza Artificiale ad alto rischio è richiesto il coinvolgimento preventivo del sindacato, con un diritto di informazione in fase di adozione. Questo rappresenta un passo avanti significativo.
Il doppio binario — alfabetizzazione/formazione dei lavoratori e coinvolgimento sindacale preventivo — è centrale. Da un lato, il datore di lavoro ha l’obbligo di garantire che tutti i lavoratori, o chiunque utilizzi sistemi di Intelligenza Artificiale per suo conto, ricevano una formazione e un’informazione adeguate. Dall’altro, il coinvolgimento sindacale, sancito a livello europeo, rappresenta un assist importante per le relazioni industriali, offrendo un’opportunità per rafforzare il dialogo sociale in un contesto altamente tecnologico. Infine, ritengo che il tema del coinvolgimento sindacale, pur essendo rilevante, non abbia ancora ricevuto l’attenzione che merita. La sua presenza nel regolamento europeo rappresenta una novità importante, che dovrebbe essere valorizzata maggiormente nel dibattito tra gli addetti ai lavori.
Sfide e prospettive future
Quali sono, a suo avviso, le sfide principali per il futuro che le aziende devono affrontare, considerando in particolare le caratteristiche del contesto italiano, caratterizzato in gran parte da PMI?
Per le PMI, l’adozione di sistemi di Intelligenza Artificiale rappresenta una sfida significativa. Questi strumenti richiedono non solo investimenti, ma anche una visione strategica e una cultura della governance aziendale che non sempre sono presenti, soprattutto nei settori meno esposti all’innovazione tecnologica. La complessità della compliance normativa, inoltre, può essere un ostacolo, poiché per garantire il rispetto delle regole le aziende spesso devono affidarsi a consulenti esterni, come già avviene con il GDPR. Questo può gravare particolarmente sui piccoli datori di lavoro, rendendo difficile per loro cogliere pienamente i vantaggi dell’IA e inserirla efficacemente nei processi aziendali.
Parallelamente, l’Europa affronta una sfida altrettanto importante: riuscire a bilanciare il proprio ruolo di leader nella regolamentazione con la necessità di promuovere l’innovazione. La tradizione europea di normative solide e valoriali è indubbiamente un punto di forza, ma rischia di essere percepita come eccessiva e troppo complessa, specialmente in un settore come quello dell’IA, dove è cruciale la rapidità nello sviluppo e nell’adozione delle tecnologie.
Un esempio emblematico è il tema della sovranità tecnologica. L’Europa si pone come garante dei valori e delle tutele, un approccio che ha ispirato anche altri contesti globali, come nel caso del GDPR. Tuttavia, c’è il rischio che questa spinta regolativa, se non accompagnata da un adeguato sostegno all’innovazione, possa limitare la capacità dell’Europa di competere sul mercato globale, rendendola più dipendente dai grandi player internazionali.
La questione non è tanto rinunciare ai valori o alle tutele, quanto trovare un giusto compromesso. Un eccesso di regole rischia di tradursi in un complesso apparato burocratico, fatto di documenti e adempimenti che non sempre si traducono in reale efficacia. La sfida, quindi, è creare un quadro normativo che non sia solo solido, ma anche pratico e capace di supportare la crescita tecnologica.
Questo programma politico europeo, orientato alla tutela dei valori, è senza dubbio una scelta precisa e ambiziosa. Tuttavia, per renderla sostenibile e competitiva, è fondamentale garantire che le regole non diventino un freno, ma un punto di forza per promuovere l’innovazione.