Logo Banca Ifis

ECONOMIA SEMPREVERDE 

Ma quindi dovremmo sentirci in colpa per usare ChatGPT?

Ogni nostra conversazione con un chatbot, come ogni immagine creata da un algoritmo, ha un costo ambientale nascosto ma enorme.

I numeri sono da prendere con le pinze, tuttavia una recente ricerca citata da Vox ha ipotizzato questo: chiedere a ChatGPT di scrivere due email da 200 parole ciascuna consuma circa l’energia che un’auto elettrica Tesla usa per percorrere poco più di un chilometro.

Moltiplicate il singolo, piccolo dato per le migliaia di richieste che partono ogni secondo in tutto il mondo e avrete il conto.

Il punto è che la potenza di calcolo richiesta dall’AI è enorme: dietro ogni nuovo modello ci sono data center pieni di macchinari assetati di corrente.

Secondo alcune previsioni, l’elettricità consumata dai data center potrebbe aumentare del 160% entro il 2030, con un conseguente raddoppio delle emissioni di CO₂ associate. Altre analisi prevedono scenari ancora peggiori: l’Agenzia dell’energia internazionale stima che i consumi raddoppieranno entro il 2030, la società di consulenza McKinsey che possano addirittura quintuplicare.

I dati delle stesse Big Tech indicano aumenti vertiginosi. Dal 2019 al 2023 le emissioni annuali di Google sono salite del 48%. Una cifra in controtendenza rispetto alla promessa della casa di Mountain View di dimezzare le sue emissioni entro il 2030.

Le emissioni di Microsoft sono aumentate del 29% in tre anni, quelle di Amazon del 34%.

Il problema è anche a livello di consumo idrico. I processori generano calore e vanno raffreddati continuamente, spesso con ingenti quantità d’acqua.

Sempre per restare all’esempio citato da Vox, per far scrivere a ChatGPT due mail, i server di OpenAI devono usare circa 2 litri d’acqua per raffreddarsi.

Uno studio stima che entro il 2027 l’intelligenza artificiale potrebbe consumare fino a 6,6 miliardi di metri cubi d’acqua all’anno per raffreddare i data center: praticamente due terzi dell’intera acqua che si consuma in Inghilterra.

Un incubo? Sì ma mettiamo le cose in proporzione. Oggi tutti i data center del mondo rappresentano circa l’1-1,5% dei consumi elettrici globali, e poco meno del 3% delle emissioni. Anche ipotizzando un raddoppio o triplicamento, resteremmo sotto al 10% del consumo mondiale. Il grosso delle emissioni deriva ancora da settori tradizionali come energia, trasporti, industria e agricoltura.

Ma quali soluzioni abbiamo, per un settore che secondo le previsioni sarà sempre più onnivoro di energia?

La prima strada è tecnica: rendere hardware e software più efficienti. I progressi in questo campo sono veloci. Anche solo tra una generazione e l’altra di processori (circa due anni), l’efficienza energetica nell’eseguire modelli AI è aumentata di 25 volte. E già l’anno scorso, gli ingegneri di Deepseek, il rivale cinese di ChatGPT, sostennero di aver creato il loro modello consumando il 50% di energia in meno. I ricercatori svilupperanno sempre algoritmi più «leggeri», che richiedono meno calcolo e quindi meno energia.

La seconda strada è quella di usare energie più pulite per l’alimentazione dei data center. Big tech come Google, Microsoft, Meta e Amazon ed altri stanno siglando contratti pluriennali per energia solare, eolica e – in alcuni casi – nucleare.

Insomma, non si può negare che ogni interazione con ChatGPT abbia un costo ambientale, ma non avrebbe senso neanche demonizzare a priori l’intelligenza artificiale, che può portare enormi benefici e persino contribuire a ridurre le emissioni in altri settori (dal miglioramento delle reti di trasporto alla gestione efficiente di impianti industriali).

E non c’è bisogno neanche di fustigarsi per ogni conversazione con il ChatGPT di turno; piuttosto, sarà utile gestire con lucidità e lungimiranza la transizione verso modelli sempre più sostenibili. Prima che sia il clima a presentarci il conto.

Condividi