Banca Ifis Logo

Economia Sempreverde

L’AI ha un problema: richiede un consumo altissimo di acqua ed energia.

«ChatGPT suggeriscimi una ricetta per cena».

«Certamente, ecco qui una ricetta, ecc. ecc»

Et voilà, abbiamo appena consumato 3 watt/ora. Praticamente l’energia utile per effettuare 10 ricerche tradizionali tramite Google, o per una telefonata di un’ora. “Artificial Intelligence” è la parola del 2025: gli investimenti nello strumento (e le nostre ricerche) aumenteranno sempre di più. C’è tuttavia un problema che le aziende e diversi Stati si stanno preparando ad affrontare: gli enormi consumi di energia e acqua necessari per il suo funzionamento.

Partiamo dall’energia. Questa viene consumata non solo per le ricerche degli utenti finali, ma anche e soprattutto durante la fase di addestramento delle AI. Come ha raccontato la testata tech The Verge, per “allenare” GPT-3 (il modello linguistico di OpenAI) sono stati consumati poco meno di 1.300 megawatt/ora di energia: l’equivalente di quanto consumato da 130 case statunitensi per un anno o da una persona che guarda Netflix per 1,6 miliardi di ore. In media, ogni volta che chiediamo a ChatGPT o simili di generarci un’immagine, consumiamo energia sufficiente a caricare uno smartphone completamente. Nel Regno Unito si stima che la domanda di energia per i data center quintuplicherà entro il 2030; negli Stati Uniti, invece, che arriverà a coprire l’8% del consumo totale (partendo dal 3% del 2022).

In parallelo, collegato all’aumento di energia, c’è il tema del consumo di acqua. Per evitare il surriscaldamento dei data center, infatti, le aziende ricorrono all’acqua per raffreddare le loro strutture. Secondo uno studio dell’Università della California, pubblicato su Nature, ogni volta che ci facciamo una chiacchierata con ChatGPT stiamo consumando mezzo litro d’acqua. Ed entro il 2027 la domanda dovuta all’AI potrebbe arrivare a 6,6 miliardi di metri cubi di acqua potabile annui.

Diverse associazioni hanno sollevato la questione e sempre più Stati si stanno preoccupando inoltre per i rischi legati ai blackout elettrici e alle forniture idriche. La speranza, forse, arriva dalla tecnologia stessa e alla sua capacità di diventare sempre più efficiente. A gennaio il mondo dell’AI è stato sconquassato dall’arrivo di DeepSeek: definita la risposta cinese e low cost di ChatGPT, promette di essere il 90% più economica e di consumare il 75% in meno di energia rispetto ai competitor. Non è un caso che il suo arrivo dirompente abbia fatto crollare in Borsa non solo i giganti tech, ma anche i colossi energetici americani (-20%), che avevano basato parte delle previsioni della loro crescita sull’aumento di domanda di energia dovuta all’AI.

La scommessa è che lo sviluppo e il raffinamento di nuove tecnologie possa portare a un’intelligenza artificiale più efficiente. Ci sperano le big tech, ma pure chi ha a cuore l’ambiente.

Condividi