Nel dibattito sull’IA emerge spesso la domanda: “l’IA è sostenibile?”. Dare una risposta definitiva non è possibile perché l’impatto e le conseguenze dell’IA, come per tutte le tecnologie, dipendono dall’uso che ne facciamo. In questo articolo esploreremo il rapporto tra Intelligenza Artificiale e sostenibilità, fornendo spunti, informazioni e dati. Considereremo il concetto di sostenibilità in senso ampio, includendo non solo gli aspetti ambientali, ma anche quelli sociali e di governance. Iniziamo quindi chiarendo cosa intendiamo per sostenibilità.
Sostenibilità e ESG
Il termine “sostenibilità” evoca immediatamente temi legati all’ambiente, come l’impatto del cambiamento climatico o la ricerca di fonti energetiche alternative al carbone. Tuttavia, i temi ambientali rappresentano solo una parte del concetto di sostenibilità.
Secondo il vocabolario Treccani, “sostenibile” significa: “nelle scienze ambientali ed economiche, condizione di uno sviluppo in grado di assicurare il soddisfacimento dei bisogni della generazione presente senza compromettere la possibilità delle generazioni future di realizzare i propri”. Si tratta quindi di una condizione che non include solo la dimensione ambientale. Inoltre, è un processo in costante evoluzione, motivo per cui spesso si utilizza l’espressione “sviluppo sostenibile”.
La definizione dello standard ESG si allinea con questa prospettiva. In questo articolo, non analizzeremo lo standard ESG nello specifico, ma considereremo i tre ambiti che lo compongono per analizzarne il legame con l’IA.
Lo standard ESG comprende tre aree chiave:
- Ambientale (Environmental): gestione delle risorse naturali, inclusi aspetti come la riduzione delle emissioni di carbonio e l’efficientamento energetico;
- Sociale (Social): protezione dei diritti umani, condizioni di lavoro, impatto sulle comunità locali e temi di diversità e inclusione;
- Governance: sistemi di gestione, trasparenza ed etica.
ESG – Sostenibilità ambientale e IA
Il rapporto tra Intelligenza Artificiale e sostenibilità ambientale è caratterizzato da un forte contrasto: da un lato l’IA è fondamentale per lo sviluppo di soluzioni tecnologicamente avanzate per studiare e contrastare il cambiamento climatico, dall’altro la creazione e l’utilizzo di modelli di IA richiedono molta energia e comportano significative emissioni di CO2. Questa richiesta di energia e l’aumento delle emissioni sono cresciuti notevolmente con la diffusione dei modelli di IA generativa.
Per quanto riguarda l’impatto dell’Intelligenza Artificiale, e in particolare dell’IA generativa, una quota significativa dell’impronta ecologica è legata alla potenza di calcolo necessaria per addestrare i modelli. Secondo stime recenti, l’addestramento di un modello linguistico di grandi dimensioni come GPT-3 richiede poco meno di 1.300 megawattora (MWh) di elettricità, l’equivalente dell’energia consumata annualmente da 130 case americane. Il filosofo Luciano Floridi sottolinea però che spesso manca chiarezza e completezza nelle informazioni relative alle condizioni di addestramento e al processo di sviluppo. Diversi fattori, come il tipo di hardware utilizzato, la durata delle sessioni di addestramento, il numero di Reti Neurali addestrate, l’impiego di memoria e le caratteristiche della rete elettrica, devono essere considerati per determinare l’impronta ecologica di un sistema di IA. Queste informazioni sono spesso incomplete o difficilmente reperibili, rendendo le stime dell’impatto dei modelli approssimative. Inoltre, i ricercatori solitamente addestrano migliaia di modelli prima di un rilascio.
Il gruppo di ricerca Digital Ethics Lab dell’Oxford Internet Institute, guidato da Luciano Floridi, ha esaminato la mancanza di prove scientifiche relative al trade-off tra le emissioni necessarie per la ricerca, lo sviluppo e l’uso dell’IA, e il guadagno in termini di efficienza energetica. Floridi e il suo gruppo hanno concluso che sfruttare le opportunità offerte dall’IA per il cambiamento climatico è sia fattibile che auspicabile, ma comporta sacrifici (in termini di rischi etici e incremento dell’impronta ecologica) per ottenere un guadagno significativo (una risposta più efficace ai cambiamenti climatici).
Il World Economic Forum e l’ONU riconoscono l’IA come una tecnologia che può aiutare a combattere il cambiamento climatico. In particolare, il World Economic Forum ha sintetizzato in nove punti le modalità con cui l’IA può monitorare il cambiamento climatico.
Proprio durante l’ultimo incontro annuale del World Economic Forum a Davos, Sam Altman, CEO di OpenAI, ha avvertito che la prossima ondata di sistemi di Intelligenza Artificiale generativa consumerà molta più energia del previsto, mettendo sotto pressione i sistemi energetici. Pertanto, sarà necessaria una svolta. Una possibile soluzione potrebbe essere lo sviluppo di modelli di IA più efficienti dal punto di vista energetico, senza sacrificare la profondità e l’accuratezza del modello. In questo senso, una potenziale risposta potrebbe essere rappresentata dagli Small Language Models, che stanno iniziando a diffondersi.
Altri dati provengono da una stima dell’Osservatorio Digital & Sustainable del Politecnico di Milano basata su dati della Carnegie Mellon University. La generazione di un’immagine con IA richiederebbe la stessa quantità di energia necessaria per ricaricare uno smartphone, mentre le interrogazioni di ChatGPT in un giorno equivarrebbero alla ricarica di 83 milioni di smartphone.
ESG – Sostenibilità sociale e IA
La dimensione sociale della sostenibilità riguarda la protezione dei diritti umani, le condizioni di lavoro, l’impatto sulle comunità locali e i temi di diversità e inclusione. In questo contesto, l’Intelligenza Artificiale tocca numerosi aspetti e solleva molte questioni.
In occasione dell’ultimo World Economic Forum è stata lanciata l’iniziativa “AI for Social Innovation” da parte della Global Alliance for Social Entrepreneurship. Questo progetto mira a garantire che l’IA migliori la vita, acceleri il proprio impatto positivo e che i cosiddetti “social innovators” – aziende, start-up e imprenditori che sviluppano soluzioni innovative in ambito sociale – abbiano un ruolo di primo piano. Il report “AI for Impact: The Role of Artificial Intelligence in Social Innovation“, pubblicato a seguito della riunione del World Economic Forum, presenta lo stato attuale dell’IA nel campo dell’innovazione sociale.
Il report si basa sui dati di 300 social innovators innovatori sociali in oltre 50 paesi e su 90 iniziative, rivelando una rappresentanza quasi equa delle applicazioni dell’IA nelle regioni ad alto e basso reddito. Il rapporto individua tre aree in cui l’IA sta apportando contributi significativi: assistenza sanitaria, sostenibilità ambientale ed empowerment economico. L’assistenza sanitaria è l’ambito con il maggior numero di iniziative, con il 25% degli innovatori che utilizza l’IA per promuovere l’accesso alla salute. Anche le grandi aziende tecnologiche sono interessate a questo settore. Google, ad esempio, ha sviluppato Med-Gemini, una famiglia di modelli ottimizzati per applicazioni mediche multimodali. Il 20% degli innovatori usa l’IA per affrontare problemi legati al cambiamento climatico, mentre l’empowerment economico è particolarmente diffuso nei paesi a basso reddito, dove si trova l’80% delle iniziative volte a migliorare i mezzi di sussistenza.
È interessante notare che persistono delle disparità di genere: solo il 25% delle innovazioni sociali basate su IA è sviluppato da donne.
Dal punto di vista tecnologico, il 70% degli innovatori sociali ha implementato soluzioni basate su Machine Learning, con solo il 20% che utilizza anche NLP, computer vision o analisi predittiva.
Realizzare a pieno il potenziale dell’IA per l’impatto sociale richiede più della sola abilità tecnologica. Sono necessari anche programmi di formazione, iniziative di sviluppo delle competenze e dialogo tra settore privato e pubblico.
Un secondo spunto interessante per la dimensione sociale proviene dal sociologo Nicholas Christakis, direttore dello Human Nature Lab presso l’Università di Yale. Secondo Christakis, l’IA potrebbe avere un impatto sulle norme sociali, rendendo necessario valutare attentamente se i sistemi di Intelligenza Artificiale e le loro modalità di utilizzo sono allineati con valori ed esigenze che s’intende perseguire.
Dagli esperimenti condotti da Christakis è emerso che, in contesti sociali, la presenza di IA sotto forma di chatbot può sia migliorare la cooperazione umana sia spingere le persone a comportarsi in modo egoistico. Tuttavia, gli aspetti più interessanti e preoccupanti riguardano l’impatto sui processi decisionali.
Altri esperimenti mostrano infatti che delegare le decisioni a assistenti virtuali basati su IA può oscurare la responsabilità morale e incoraggiare interazioni non etiche. Ad esempio, un gruppo di ricercatori dell’Istituto Max Planck ha condotto esperimenti in cui ai partecipanti venivano forniti assistenti virtuali. I partecipanti dovevano lanciare i dadi e riportare il risultato. Circa il 5% dei partecipanti era disonesto quando svolgeva il compito da solo. Questa percentuale saliva al 40% quando potevano delegare la decisione di riportare risultati falsi a un altro essere umano, al 50% se potevano delegarla a una macchina, e all’88% se potevano lasciare che un agente IA decidesse di mentire per loro conto.
Assistenti virtuali e applicazioni basate su IA sono sempre più a portata di mano e saranno sempre più presenti nelle nostre interazioni sociali. Christakis evidenzia l’importanza di sperimentare attentamente questi sistemi.
Questa analisi ci invita a prestare la massima attenzione all’impatto delle IA sulle nostre decisioni, per garantire che un sistema di IA sia davvero sostenibile da un punto di vista sociale. Solo con una consapevolezza attenta e un’implementazione responsabile possiamo sperare di ottenere benefici senza compromettere i nostri valori e interazioni sociali.
ESG – Governance e IA
La governance aziendale deve essere ispirata a buone pratiche e principi etici. Ma quale impatto può avere l’IA in questo ambito?
Partiamo da un recente rapporto realizzato da Microsoft in collaborazione con LinkedIn. Secondo l’indagine, il 75% dei knowledge worker utilizza l’Intelligenza Artificiale al lavoro e il 79% dei leader ritiene che l’adozione dell’IA sia fondamentale per rimanere competitivi. Tuttavia, il 60% di loro afferma che alla propria azienda manca una visione e un piano per implementarla. Di conseguenza, i dipendenti stanno agendo autonomamente: il 78% degli utenti di IA utilizza i propri strumenti per lavorare. Questo rappresenta un rischio per la sicurezza dei dati aziendali, poiché le persone utilizzano l’IA per scopi lavorativi anche attraverso account personali, senza un piano strategico aziendale che ne orienti l’utilizzo. Per le aziende, quindi, è auspicabile definire delle policy che orientino l’uso degli strumenti di IA in modo sicuro.
Definire un utilizzo etico dell’IA non è semplice. Esistono diversi documenti e raccomandazioni che stabiliscono principi etici a cui fare riferimento, dai principi di Asilomar alle Ethics Guidelines for Trustworthy AI definite dalla Commissione Europea. Il filosofo e informatico francese Jean-Gabriel Ganascia, esperto di etica e tecnologie, suggerisce quattro raccomandazioni:
- creazione di comitati etici esterni alle aziende, con rappresentanti delle aziende e personalità esterne;
- creazione di comitati etici interni alle aziende, con competenze tecniche, per attuare le raccomandazioni formulate dai comitati etici esterni;
- introduzione di certificazioni esterne da parte di enti indipendenti per assicurare che le raccomandazioni dei comitati etici esterni e interni siano attuate;
- supervisione e monitoraggio continuo delle applicazioni di IA.
Anche la regolamentazione, in particolare l’AI Act, aiuta ed orienta le azioni delle organizzazioni in termini di governance.
L’AI Act classifica le applicazioni di IA in quattro livelli di rischio: inaccettabile, alto, limitato e minimo. Tra le applicazioni ad alto rischio rientrano sistemi legati al mondo del lavoro, come quelli per il reclutamento, la selezione di personale e le decisioni sulla promozione e cessazione del rapporto di lavoro. Questi sistemi non sono vietati, ma devono essere soggetti a obblighi rigorosi, come la valutazione di conformità, la manutenzione di documentazione tecnica e la presenza di un’interfaccia uomo-macchina che consenta di disattivare il sistema o ignorarne i risultati in qualsiasi momento.
L’AI Act prevede inoltre la creazione di sandbox, spazi di sperimentazione che permettano alle aziende, incluse le piccole e medie imprese e le startup, di sperimentare soluzioni di IA in contesti realistici, godendo di esenzioni regolamentari temporanee.
Infine, è importante ricordare che l’AI Act si applica a fornitori, importatori e distributori di sistemi di IA che operano nell’Unione Europea, indipendentemente dalla loro ubicazione. Anche altri paesi stanno regolamentando l’IA, ma rimane cruciale che esistano regole comuni a livello internazionale. Regole comuni aiuterebbero a evitare impasse, favorendo invece una collaborazione internazionale e una crescita più sostenibile del settore.
Chiudiamo con il consiglio di un altro filosofo, Cosimo Accoto. Secondo Accoto, è necessario passare da una fase di “isteria”, caratterizzata dalla rincorsa alle innovazioni basate su IA, a una fase di strategia. Le aziende dovrebbero studiare i sistemi di IA, anche attraverso sperimentazioni, per definire una strategia chiara e sostenibile.