Secondo l’Agenzia Internazionale dell’Energia, il consumo energetico dei data center globali potrebbe più che raddoppiare entro il 2026, “raggiungendo livelli superiori a quelli delle grandi nazioni”. Ironia della sorte, “mentre stiamo usando l’AI per risolvere alcune delle più grandi sfide del mondo – dal cambiamento climatico alle scoperte in campo sanitario – stiamo anche contribuendo a una crisi ambientale di altro tipo”, ha scritto su Fortune Chris Gladwin, fondatore e amministratore delegato del settore tecnologico.
Ora, secondo un nuovo rapporto, ChatGPT di OpenAI – che utilizza il modello linguistico GPT-4 – consuma 519 millilitri o poco più di una bottiglia d’acqua per scrivere un’e-mail di 100 parole. Questo secondo il Washington Post in una ricerca condotta in collaborazione con l’Università della California, Riverside.
Per scrivere un’e-mail a settimana per un anno, ChatGPT consumerebbe 27 litri d’acqua, ovvero circa una caraffa e mezza. Ingrandendo il discorso, il WaPo ha scritto che se un abitante degli Stati Uniti su 10 – 16 milioni di persone – chiedesse a ChatGPT di scrivere un’e-mail alla settimana, il costo sarebbe di oltre 435 milioni di litri d’acqua.
Sebbene si sia parlato molto dell’utilizzo di energia elettrica che ogni richiesta di ChatGPT richiede immediatamente, negli ultimi mesi il discorso sull’acqua ha acquisito ulteriore vigore.
Come spiega il WaPo , ogni richiesta che un utente inserisce in ChatGPT viene rapidamente trasformata in codice e “passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare in una risposta”. Tutti questi calcoli passano attraverso server fisici reali, ospitati in enormi centri dati in tutto il mondo. Sputare una risposta, o rispondere a un comando, fa sì che i server si riscaldino, come un vecchio portatile sotto pressione.
È qui che entra in gioco l’acqua: per evitare che i server si surriscaldino e si rompano, i data center si affidano a meccanismi di raffreddamento, spesso tramite “torri di raffreddamento” che a loro volta richiedono acqua. Ogni struttura, a seconda del clima in cui si trova, utilizza una quantità diversa di acqua ed elettricità. West Des Moines, in Iowa, sta rapidamente diventando una destinazione popolare, grazie al clima temperato che richiede meno interventi di raffreddamento.
“Non siamo ancora arrivati al punto in cui l’intelligenza artificiale ci ha sottratto in modo tangibile le nostre risorse idriche naturali più essenziali”, ha scritto Shaolei Ren, professore associato di ingegneria all’UC Riverside, che da anni cerca di quantificare l’impatto dell’intelligenza artificiale sul clima. Tuttavia, Ren ha definito “decisamente preoccupante” l’aumento dell’utilizzo di acqua da parte dell’AI.
Tra la rapida crescita della popolazione e il cambiamento del clima, “l’esaurimento delle risorse idriche e l’invecchiamento delle infrastrutture idriche” sono alcune delle sfide più importanti, ha scritto a novembre. “La preoccupazione non riguarda solo la quantità assoluta di acqua utilizzata dai modelli di intelligenza artificiale, ma anche il modo in cui gli sviluppatori di modelli di intelligenza artificiale rispondono alla sfida globale condivisa della scarsità d’acqua”.
La siccità, ha osservato, è una delle conseguenze più immediate del cambiamento climatico e spetta alle aziende affrontare il problema dell’utilizzo dell’acqua nelle loro attività, e le aziende tecnologiche che utilizzano l’AI generativa sono in cima alla lista. “Vediamo già accese tensioni sull’uso dell’acqua tra i centri dati AI e le comunità locali”, scrive Ren. “Se i modelli di AI continuano a consumare acqua, queste tensioni diventeranno più frequenti e potrebbero portare a turbolenze sociali”.
Nel rapporto di sostenibilità di Microsoft dello scorso anno, l’azienda ha dichiarato che il suo consumo globale di acqua è aumentato del 34% tra il 2021 e il 2022. Nello stesso periodo, l’utilizzo di acqua da parte di Google è aumentato del 20%, ha scritto nel suo rapporto. “È giusto dire” che la maggior parte di questa crescita in entrambe le aziende ‘è dovuta all’intelligenza artificiale’, ha dichiarato Ren all ‘AP. (Il centro dati di Microsoft ha consumato 700.000 litri d’acqua durante l’addestramento del GPT-3, ha riferito il WaPo ).
Holly Alpine, un tempo senior program manager di Microsoft per la sostenibilità ambientale della comunità dei data center, si è dimessa dall’azienda all’inizio di quest’anno per principio, ha scritto per Fortune, a causa dello sviluppo ecologicamente irresponsabile dell’AI da parte dell’azienda.
“I rapporti degli analisti suggeriscono che le tecnologie avanzate, come l’AI o l’apprendimento automatico, hanno il potenziale di aumentare il rendimento dei combustibili fossili del 15%, contribuendo a una ripresa del petrolio e ritardando potenzialmente la transizione globale verso le energie rinnovabili”, ha scritto Alpine. “Gli impatti nel mondo reale sono sbalorditivi: un singolo accordo di questo tipo tra Microsoft ed ExxonMobil potrebbe generare emissioni che superano di oltre il 600% gli impegni annuali di Microsoft per la rimozione delle emissioni di carbonio nel 2020”.
Questa storia è stata pubblicata originariamente su Fortune.com
(Foto: Jasmin Merdad – GETTY IMAGES).