Gli AI data center raccolgono i dati prodotti della tecnologia, il loro costo di mantenimento ha aumentato la domanda di energia elettrica.
Neil Lawrence, professore di AI a Cambridge, in un articolo del 2017, dal titolo: ‘Living Together: Mind and Machine Intelligence’ risponde alla domanda perché abbiamo bisogno dei computer e dati digitali.
Esseri umani e computer
Lawrence afferma che la differenza essenziale tra la mente di un essere umano e di un computer consiste nella altissima velocità di trasmissione delle informazioni proprie delle reti di trasmissione dati.
Mentre gli esseri umani possono parlare e trasmettere informazioni ad una velocità quantificabile tra i 40 ed i 100 kbit al secondo, i computer possono trasmettere informazioni stimabili tra un minimo di 10 milioni ed un massimo di centinaia di milione di volte superiore.
In sintesi, mentre riceviamo ed elaboriamo enormi quantità di informazioni sensoriali (visive, uditive, tattili etc), la nostra capacità di comunicare ad altri esseri umani è fisiologicamente limitata: sia che scriviamo, parliamo, disegniamo etc.
In uno studio del 2019 condotto su 17 lingue differenti, la velocità media di trasmissione delle informazioni è risultata di 40 kbit al secondo.
Un computer, invece, sostiene Lawrence, può interagire con calcolatori ad altissime velocità, che variano a seconda del tipo di rete di trasmissione. Se prendiamo come riferimento la velocità di rete di Gigabit al minuto, i computer comunicano ad una rapidità superiore stimabile in 25 milioni di volte rispetto ad un essere umano.
Con un’altra differenza fondamentale: i progressi tecnologici continueranno ad aumentare la velocità di comunicazione tra computer. Quella tra esseri umani è bloccata dalla fisiologia.
Una tecnologia individuale complementare a noi
Quindi non è il singolo computer ‘isolato’, ma è Internet, la rete delle reti, il centro della transizione verso un pianeta digitale.
Internet rendendo semplice e velocissima l’inter-comunicazione di qualunque computer e/o dispositivo elettronico, ci permette di superare i nostri limiti biologici nella comunicazione.
Con l’invenzione, prima del pc e poi dello smartphone connessi tramite Internet, abbiamo sviluppato una tecnologia individuale, intuitiva e recentemente anche tascabile che è divenuta complementare a noi.
Internet, per queste ragioni, ha raggiunto quasi 5 miliardi di utenti grazie agli smartphone ed ai pc e circa 2 miliardi di siti web, oltre 4 milioni di app mobili e 181 zettabyte di dati prodotti nel 2023 (una enorme quantità di dati generati).
Gestire ed elaborare i dati
Questa massa di dati non riusciamo più a gestirla con gli strumenti attuali come le search, parole chiave che danno listati di siti web associati. Abbiamo bisogno di esecuzione automatica di gestione dei dati, capacità di sintesi, coordinamento tra applicazioni, esecuzione dei task.
Abbiamo bisogno, cioè, di agenti digitali a cui delegare la gestione dei dati. In particolare i Large Language Models (Llm), con il numero gigantesco di parametri e le grandissime capacità di elaborazione, ci abilitano a nuove possibilità ma richiedono centri di calcolo molto potenti.
Questo ha portato alla creazione di fabbriche di gestione ed elaborazione dei dati i data center, che si caratterizzano per consumi di energia molto rilevanti.
Quanto sono potenti questi AI data center
L’Agenzia Internazionale per l’Energia stima che un AI data center ha bisogno di 100 Mw l’anno (l’equivalente della domanda di energia di circa 400mila automobili elettriche) e rispetto ai 5/10 Mw di un data center tradizionale.
Deloitte stima che l’elaborazione di una richiesta tramite prompt su un modello Gen AI LLM consumi da 10 a 100 volte più energia rispetto a una ricerca su Internet. Se nel breve periodo il 5% degli utenti Internet iniziasse a utilizzare l’AI in questo scenario, il fabbisogno energetico potrebbe salire a 1.000 terawatt, rispetto ai 300 attuali.
Peraltro, la domanda di energia per i data center ha una distribuzione geografica ad alta concentrazione, in pochi paesi e poche aree.
L’impatto degli AI data center sul consumo di energia elettriche
Questo fenomeno fa sì che la domanda di energia elettrica raggiunga rispettivamente più del 10% del totale consumato in cinque Stati americani e il 20% in Irlanda, creando potenziali problemi alle infrastrutture di rete.
Per ovviare a questi problemi di sovraccarico della rete in aree specifiche, alcuni tra i maggiori attori nel cloud computing e Data center come Google, Facebook, Microsoft stanno siglando contratti con fornitori di energia elettrica da centrali nucleari per avere approvvigionamento energetico sufficiente e carbon free.
Comunque, se usiamo modelli di previsioni basati su ipotesi di crescita lineare dei consumi attuali generata dagli AI data center, la domanda di energia sarà difficilmente sostenibile già nel 2030 ed insostenibile nel 2050.
Peraltro, non si può escludere che il progresso di efficientamento energetico-tecnologico nei chip-server o nella domanda di computazionale dei Large Language Model possa ridurre questi consumi. Così come una maggiore distribuzione geografica dei Data center potrebbe diminuire il carico sulle reti nazionali.
Si può concludere che i consumi energia in Data center derivati da AI cresceranno moltissimo nel breve periodo, ma i progressi tecnologici ed una maggiore distribuzione geografica dei data center potrebbero limitarne fortemente l’impatto.
Paolo Cellini
Docente di Economia Digitale-AI all’Università Luiss. In precedenza, è stato Vice presidente Emea Walt Disney e Venture Partner in 7 fondi di Venture Capital ed è autore di diversi libri.
L’ultimo, scritto insieme a Maximo Ibarra, Ceo di Engineering, si intitola “AI Impact. La cooperazione persone-tecnologie per le grandi sfide contemporanee” e viene presentato il 12 marzo presso il Campus Luiss di viale Romania 32, a Roma.
L’articolo originale è stato pubblicato sul magazine di Fortune del marzo 2025 (numero 2, anno 8).