L’utilizzo sempre più diffuso dell’Intelligenza Artificiale porta ad interrogarsi anche sul suo impatto ambientale, a chiedersi quale sia il rapporto tra costi e benefici e se sia davvero necessario (e possibile) mettere un freno alla corsa all’IA.
L’analisi del rapporto tra Intelligenza Artificiale e sostenibilità evidenzia un forte contrasto: l’IA è fondamentale per analizzare le emissioni e prevedere come ridurle ma nel farlo ha un notevole impatto inquinante. Cerchiamo di capire meglio questa situazione anche alla luce delle informazioni raccolte e degli studi fino ad ora condotti.
L’IA per la sostenibilità
L’Intelligenza Artificiale è uno strumento fondamentale per aumentare la nostra conoscenza e far progredire la ricerca scientifica in molti ambiti e, tra questi, vi è sicuramente la lotta al cambiamento climatico.
Grazie all’Intelligenza Artificiale è possibile elaborare enormi volumi di dati per studiare i fenomeni climatici presenti e, soprattutto, per elaborare e migliorare i sistemi di previsione e predizione futuri. Sistemi di Intelligenza Artificiale vengono già oggi utilizzati, ad esempio, per prevedere le variazioni della temperatura media globale e per predire fenomeni oceanici e le precipitazioni in diverse aree del mondo.
Inoltre, l’IA contribuisce in modo positivo alla lotta al cambiamento climatico attraverso il miglioramento e l’ottimizzazione della generazione e dell’uso dell’energia.
Attraverso l’utilizzo di Intelligenza Artificiale è diventato possibile, per aziende ed organizzazioni, valutare il proprio impatto ambientale, in particolare in termini di emissioni di anidride carbonica, e capire l’apporto di ogni singola azione fatta per ridurlo. Le aziende possono dunque avere consapevolezza di quanta Co2 producono e possono intervenire, studiando soluzioni ad hoc attraverso l’analisi di diversi scenari e grazie alla disponibilità di una notevole mole di dati.
Secondo uno studio di PwC UK e Microsoft, l’utilizzo di IA per le applicazioni ambientali potrebbe contribuire a ridurre le emissioni di gas serra dall’1,5 al 4% entro il 2030 rispetto ad uno scenario privo di interventi.
L’impatto dell’IA
Anche se spesso non ci pensiamo, ogni azione nel mondo digitale comporta un’emissione di Co2. Per comprendere l’entità del fenomeno, nel 2020 uno studio della Royal Society ha evidenziato come il web possa essere considerato il quarto Paese più inquinante del mondo.
Se da un lato l’Intelligenza Artificiale è uno strumento fondamentale per comprendere e contribuire a combattere il cambiamento climatico, dall’altro le emissioni generate dal suo addestramento ed utilizzo sono notevoli.
Riuscire a determinare e quantificare in modo preciso l’impatto ambientale dell’Intelligenza Artificiale non è affatto semplice. Innanzitutto, bisogna considerare sia le emissioni legate alla fase di addestramento del modello, sia quelle generate dal suo utilizzo una volta rilasciato.
I modelli di Machine Learning, e ancor di più quelli di Deep Learning, vengono addestrati con enormi quantità di dati che richiedono potenti data center che per funzionare necessitano di grandi quantità di energia.
L’impatto ambientale, dunque, dipende da molti fattori, tra cui:
- tipo di hardware utilizzato (server più o meno recenti/efficienti);
- durata delle sessioni di addestramento;
- numero di Reti Neurali addestrate;
- risorse di energia (rinnovabili o meno) adoperate dalla rete energetica che fornisce elettricità.
Si tratta di informazioni difficilmente reperibili e non sempre rese note. Inoltre, l’assenza di uno di questi dati può distorcere le valutazioni dell’impronta ecologica.
In uno studio effettuato dall’Università del Massachusetts è stato stimato che, in generale, lo sviluppo di un modello di Intelligenza Artificiale comporta l’emissione di 284 tonnellate di anidride carbonica, l’equivalente di cinque volte l’impatto che ha un’automobile nell’intero ciclo di vita.
Il prof. Tom Goldstein del dipartimento di Informatica della Università del Maryland ha cercato, invece, di valutare l’impatto dell’utilizzo di ChatGPT. Il ragionamento di Goldstein parte da una serie di calcoli ed ipotesi: ogni utente in media formula dieci domande a ChatGPT, gli utenti attivi al giorno sono circa 1 milione, ogni parola contenuta nella risposta elaborata dal chatbot richiede mediamente 350 millisecondi (se consideriamo un processore grafico A100). Questo significa che le parole generate giornalmente sono 300 milioni e che l’infrastruttura complessiva che permette a ChatGPT di funzionare lavora per un totale di circa 30 ore al giorno, distribuite su molteplici apparecchi. Traducendo questi valori otteniamo 11.870 Kwh di consumo energetico e più o meno 3,82 tonnellate di Co2 immessa. Ciò che, in media, un individuo che vive in un paese occidentale genera in 3 mesi.
Il risultato desta preoccupazione anche perché la stima non considera la fase di allenamento degli algoritmi ed è quindi da considerarsi un’approssimazione per difetto.
Come si stanno muovendo le aziende del settore?
La startup Hugging Face ritiene di aver messo a punto un metodo molto preciso per calcolare le emissioni di Co2 dei grandi modelli linguistici (LLM), stimando le emissioni prodotte durante l’intero ciclo di vita del modello piuttosto che solo durante l’addestramento.
Per testare il suo nuovo approccio, Hugging Face ha stimato le emissioni complessive del proprio LLM, BLOOM, lanciato a inizio 2022. I fattori considerati sono stati molti: la quantità di energia utilizzata per addestrare il modello su un supercomputer, l’energia necessaria a fabbricare l’hardware del supercomputer e mantenere la sua infrastruttura, l’energia utilizzata per far funzionare BLOOM una volta rilasciato sul mercato.
Hugging Face ha stimato che l’allenamento di BLOOM ha generato 25 tonnellate di Co2. Cifra che è raddoppiata quanto i ricercatori hanno preso in considerazione le emissioni prodotte dalla produzione delle apparecchiature informatiche utilizzate per l’addestramento e l’energia necessaria per far funzionare effettivamente il modello una volta addestrato. Inoltre, dopo il lancio di BLOOM, Hugging Face ha stimato che l’utilizzo del modello emette circa 19 Kg di anidride carbonica al giorno, che è simile alle emissioni prodotte guidando circa 87 Km con un’auto nuova.
Il documento pubblicato da Hugging Face potrebbe, ed è ciò che autori ed altri studiosi del settore si auspicano, stabilire un nuovo standard per le organizzazioni che sviluppano modelli di Intelligenza Artificiale.
Secondo Sasha Luccioni, ricercatrice presso Hugging Face e autrice principale dello studio, con una migliore comprensione di quanta energia consumano i sistemi di Intelligenza Artificiale, le aziende e gli sviluppatori possono fare delle scelte sui compromessi che sono disposti a fare tra inquinamento e costi.
Lynn Kaack, co-autore di un importante articolo pubblicato su Nature sulla misurazione dell’impatto ambientale dell’IA, ricorda quanto sia importante mantenere alta l’attenzione sui temi legati alle emissioni: ad esempio, aziende come Google e Meta utilizzano modelli di Intelligenza Artificiale per classificare i commenti degli utenti o consigliare contenuti. Si tratta di operazioni che consumano pochissima energia ma che vengono compiute miliardi di volte al giorno.
Entrambe le aziende citate, Google e Meta, hanno recentemente realizzato datacenter in luoghi molto freddi per garantire minori consumi di energia.
Google ha ristrutturato un’ex cartiera ad Hamina per sfruttare la presenza di un’infrastruttura già costruita e la vicinanza al Golfo di Finlandia che garantisce la presenza di acque a bassa temperatura.
Meta ha costruito il suo primo data center al di fuori degli Stati Uniti nella città svedese Luleå, qui si utilizzano esclusivamente energie rinnovabili e il clima estremamente freddo, dato dalla vicinanza col circolo polare artico, permette una notevole riduzione anche dell’energia necessaria per il raffreddamento dei server.
Nonostante gli elevati consumi ed emissioni generati, è irrealistico pensare che la corsa all’Intelligenza Artificiale possa interrompersi. Oggi l’interesse e gli sforzi sembrano essere concentrati sulla messa a punto di modelli di Intelligenza Artificiale sempre più accurati e profondi lasciando in secondo piano il tema dell’efficienza energetica. È necessario dunque elaborare nuove metriche delle prestazioni non più concentrate solo sul miglioramento dell’accuratezza. Anche secondo Luccioni, si dovrebbe passare a modi più efficienti di fare ricerca sull’IA, perfezionando i modelli esistenti piuttosto che crearne nuovi ancor più grandi.
Continua ad approfondire, leggi altri articoli Skilla!