Che l’intelligenza artificiale stia sempre più rapidamente diventando parte della nostra vita quotidiana – del nostro lavoro, del modo in cui cerchiamo informazioni, nel modo in cui costruiamo, ci curiamo o addirittura ci spostiamo – è ormai noto. E se, da un lato, questa straordinaria tecnologia offre incredibili potenzialità di applicazione, molte delle quali ancora inesplorate, unite a uno sviluppo ancora in parte inimmaginabile, il rovescio della medaglia sembra essere l’enorme quantità di energia che consuma.
La ragione è legata al fatto che sistemi avanzati come i chatbot AI di OpenAI e Google, che sono alimentati da enormi datacenter, richiedono inevitabilmente l’impiego di risorse energetiche significative. Lo dimostra il fatto che, dal 2012 ad oggi, il fabbisogno energetico dell’intelligenza artificiale è raddoppiato ogni 3,4 anni in considerazione dello sviluppo di applicazioni progressivamente più energivore, come il Machine Learning e il riconoscimento facciale (che possono consumare su base annuale l’equivalente dell’energia prodotta da ben quaranta centrali nucleari).
Secondo una ricerca condotta da Alex de Vries della Vrije Universiteit Amsterdam, entro il 2027 i data center che alimentano l’AI potrebbero consumare tra 85 e 134 terawattora di energia all’anno, equivalente addirittura al consumo di intere nazioni come l’Argentina o i Paesi Bassi. Si tratta di cifre davvero impressionanti, che equivalgono a circa lo 0,5% del consumo energetico globale, ossia di tutto il mondo.
Perché l’intelligenza artificiale richiede così tanta energia?
È normale chiedersi come possa una tecnologia richiedere un impiego di così massiccio di energia. La principale ragione sembra essere la potenza dei server che devono essere utilizzati per alimentare l’intelligenza artificiale, per loro natura altamente energivori.
Roberto Verdecchia, professore associato presso l’Università di Firenze, ha sottolineato l’importanza di considerare l’impatto ambientale dell’IA insieme alla sua precisione e velocità, seguendo magari l’esempio della California, dove le normative sulla divulgazione climatica potrebbero presto mettere sotto pressione le aziende di IA, come OpenAI e Google, obbligandole a rivelare la loro impronta di carbonio.
Tuttavia – e nonostante l’attenzione crescente da parte di istituzioni ed enti regolatori – almeno al momento attuale la fiorente industria dell’intelligenza artificiale è per la maggior parte autoregolamentata. E sebbene esistano già diversi incentivi finanziari per ridurre i costi energetici attraverso l’innovazione tecnologica, l’AI non sembra avere ancora chiare prospettive di diminuzione dei consumi.
C’è però un ulteriore fattore da considerare oltre al mero consumo di energia elettrica. Per raffreddare gli enormi data center che alimentano i sistemi di intelligenza artificiale sono infatti necessarie anche enormi quantità di acqua: ad esempio, Microsoft ha registrato un aumento del 34% nel suo consumo di acqua tra il 2021 e il 2022, corrispondente a 6,4 milioni di metri cubi di acqua ed equivalente alla capacità di 2.500 piscine olimpioniche.
Il consumo di risorse energetiche nel settore dell’IA è quindi destinato a trasformarsi in un problema significativo nei prossimi anni, e sebbene ci siano potenziali soluzioni che potrebbero aiutare l’ambiente, al momento i loro impatti positivi sono ancora troppo limitati per fare davvero la differenza.
In che modo l’intelligenza artificiale può ridurre i suoi consumi di energia
Secondo il MIT, il prestigioso Massachussetts Institute of Technology, potrebbero tuttavia essere presto disponibili nuovi strumenti per contribuire a ridurre l’energia consumata dai modelli di intelligenza artificiale e rendere tali consumi più trasparenti.
Se, infatti, sono ormai sempre più numerose le industrie chiamate ad esplicitare i consumi energetici esatti delle loro attività (si pensi ad esempio ai voli di linea e alle stime delle emissioni di carbonio, con relativi costi, sempre opportunamente documentate), tale trasparenza non esiste ancora nel settore informatico. Non si tratta di un problema da poco, specialmente in considerazione del fatto che l’IT emette, da solo, più gas serra dell’intero settore aereo.
In una fase storica in cui le previsioni indicano che, entro il 2030, i data center arriveranno ad assorbire fino al 21% della fornitura elettrica mondiale, è quindi importante trovare soluzioni efficienti in tempi rapidi.
A tal proposito, il Lincoln Laboratory Supercomputing Center (LLSC) del MIT sta sviluppando nuove tecniche per aiutare i data center a ridurre il consumo di energia. La strategia dei ricercatori consiste nell’operare a diversi livelli: è il caso degli hardware in grado di limitare la loro potenza, o degli strumenti che interrompono tempestivamente l’addestramento dei sistemi di AI. Oltre a diminuire l’esigenza energetica del modello, queste soluzioni non sembrano comprometterne la performance, né richiedono modifiche al codice o all’infrastruttura dei data center.
In particolare, il compromesso ideale potrebbe consistere nel limitare la potenza (e quindi risparmiare energia) dei data center e aumentare del 3% il tempo necessario a completare un’attività, senza che il sistema di intelligenza artificiale mostri significative ripercussioni a livello di prestazioni. Gli studiosi considerano questa soluzione accettabile, soprattutto perché i modelli vengono spesso addestrati nell’arco di giorni o addirittura mesi. In uno dei loro esperimenti in cui hanno addestrato il popolare modello linguistico BERT, limitando la potenza della GPU a 150 watt si è registrato ad esempio un aumento di due ore nel tempo di addestramento (da 80 a 82 ore), ma si è risparmiato contestualmente l’equivalente di una settimana di energia di una famiglia statunitense.
Più di tutto, però, il lavoro del LLSC è finalizzato a realizzare quella che potrebbe, domani, essere chiamata “informatica verde” o “green computing”, ossia una disciplina promotrice di una cultura della trasparenza sui consumi e, soprattutto, consapevole del proprio ruolo concreto nella costruzione di un mondo più ecosostenibile.