Le aziende tecnologiche americane stanno investendo miliardi nell'intelligenza artificiale. Ciò crea un problema di potenza


Un'intelligenza artificiale (IA) sempre migliore: è questo l'obiettivo perseguito dalle principali aziende tecnologiche negli USA. Nelle ultime settimane, Open AI, Amazon e Meta hanno annunciato miliardi di investimenti nell'intelligenza artificiale. Anche Donald Trump ha parlato della questione nel suo secondo giorno in carica. Gran parte di questo denaro sarà investito nell'infrastruttura che costituisce la spina dorsale dell'intelligenza artificiale: i data center.
NZZ.ch necessita di JavaScript per funzioni importanti. Al momento il tuo browser o il tuo ad-blocker lo impedisce.
Si prega di modificare le impostazioni.
Open AI e Microsoft investiranno 100 miliardi di dollari nel progetto "Stargate", Alphabet prevede di investire 75 miliardi nello sviluppo dell'intelligenza artificiale quest'anno, Amazon investirà 86 miliardi nelle infrastrutture, Meta 65 miliardi. Anche in Europa, soprattutto in Francia, saranno costruiti nuovi data center. Il presidente francese Emmanuel Macron annuncia investimenti per 109 miliardi di euro durante un vertice sull'intelligenza artificiale a Parigi. La domanda di energia aumenterà con l'espansione dell'infrastruttura di intelligenza artificiale, ma la misura in cui ciò accadrà è controversa.
Negli Stati Uniti ci sono molti più data center che in Europa. Lì, chip altamente specializzati addestrano e gestiscono modelli di intelligenza artificiale 24 ore su 24. Questi data center consumano molta elettricità. Nello stato della Virginia, i data center rappresentano già un quarto del fabbisogno totale di elettricità. Ma da dove dovrebbe provenire questa energia nel modo più ecologico e affidabile possibile?
L'intelligenza artificiale aumenta la domanda di energiaL'intelligenza artificiale consuma elettricità più volte: grandi quantità durante l'addestramento del modello di intelligenza artificiale. E ogni volta che un utente fa una richiesta al modello. A seconda che si tratti di testo, immagini o video, ogni richiesta a un chatbot come Chat-GPT consuma da dieci a trenta volte più energia di una ricerca online tramite un motore di ricerca.
Anche i chip dei computer necessari per addestrare e utilizzare l'intelligenza artificiale consumano più energia rispetto ai chip tradizionali utilizzati, ad esempio, per le applicazioni cloud. Per addestrare un modello di intelligenza artificiale o elaborare una query, un chip deve prima di tutto calcolare, non solo memorizzare informazioni. Ciò genera anche calore aggiuntivo. Per questo motivo i data center devono essere raffreddati in modo speciale. Soprattutto nelle regioni calde come il Texas o l'Arizona, ciò richiede molta elettricità aggiuntiva.
Ciò si riflette anche nelle proiezioni relative al futuro consumo energetico dei data center. Uno studio della società di consulenza McKinsey stima che negli USA si raggiungeranno gli 80 gigawatt entro il 2030. L'anno scorso questa cifra era di 25 gigawatt. Anche il Boston Consulting Group (BCG) prevede che la domanda di energia triplicherà. Il fatto che l'intelligenza artificiale stia diventando sempre più efficiente è un fattore che viene preso in considerazione nel calcolo, ha riferito BCG. I data center non vengono costruiti solo negli Stati Uniti: paesi e aziende di tutto il mondo stanno investendo nella loro espansione. La società di consulenza Bain scrive che il consumo energetico nei data center di tutto il mondo è aumentato del 72 percento dal 2019 al 2023 e si prevede che raddoppierà nuovamente entro il 2027.
Oggi i data center sono responsabili dell'1% del consumo energetico globale. Se le stime sono corrette, entro il 2027 i data center copriranno il 2,6% della domanda energetica globale. Si tratta forse ancora di una piccola percentuale, ma il rapido aumento evidenzia la necessità di fonti energetiche affidabili.
In pratica, negli ultimi anni i chip sono diventati sempre più efficienti. Ma soprattutto per quanto riguarda i chip AI, la tendenza è verso un maggiore consumo energetico. L'ultimo chip Blackwell di Nvidia richiederà 15 kilowatt di energia. Se si riempisse un intero data center con chip di questo tipo, si consumerebbe facilmente la stessa quantità di energia di una città di medie dimensioni. Babak Falsafi è professore all'EPFL e studia l'efficienza dei data center. Afferma: "Con i chip sviluppati appositamente per l'intelligenza artificiale, il consumo di energia raddoppia con ogni nuova generazione".
Un anno fa, Sam Altman, CEO di Open AI, aveva lanciato l'allarme: la carenza di energia avrebbe messo a repentaglio lo sviluppo dell'intelligenza artificiale.
Chip migliori possono rendere l'intelligenza artificiale più efficienteIl successo dell'intelligenza artificiale della startup cinese Deepseek ha sollevato dubbi sull'ipotesi che l'intelligenza artificiale abbia davvero bisogno di sempre più potenza di calcolo. Secondo l'azienda, Deepseek ha addestrato il suo chatbot con un numero inferiore di chip e meno potenti, riuscendo comunque a ottenere prestazioni simili al modello di punta di Open AI. In un articolo di ricerca, Deepseek spiega le tecniche utilizzate per ottenere un'intelligenza artificiale più efficiente. Altri sviluppatori di intelligenza artificiale possono adottare queste innovazioni per i propri modelli.
Se si riesce a risparmiare potenza di calcolo, i data center consumano anche meno elettricità. Babak Falsafi afferma inoltre: “I miglioramenti agli algoritmi potrebbero renderli più efficienti e quindi far risparmiare energia”.
In effetti, gli algoritmi che addestrano l'intelligenza artificiale in modo più efficiente non riducono necessariamente l'energia richiesta per le applicazioni di intelligenza artificiale nel loro complesso. Rendono l'intelligenza artificiale più economica e quindi più attraente per gli utenti. Man mano che sempre più persone e aziende utilizzeranno l'intelligenza artificiale, il consumo di elettricità tornerà ad aumentare. I costi e il fabbisogno energetico si spostano quindi dalla formazione all'applicazione pratica.
Le aziende tecnologiche investono in nuove tecnologie energeticheEcco perché Microsoft punta sull'energia nucleare e finanzia il riavvio della centrale nucleare di Three Mile Island, chiusa nel 2019. La centrale elettrica non era più redditizia. In autunno Amazon e Google hanno annunciato importanti investimenti nei cosiddetti “Small Modular Reactors”. Queste piccole centrali nucleari modulari generano fino a 300 megawatt di energia e possono fornire elettricità direttamente ai centri elaborazione dati. Nessuna di queste mini centrali nucleari è ancora in funzione negli Stati Uniti o è prossima a essere operativa.
Lo stesso Sam Altman si affida a startup come Oklo, che sviluppa piccoli reattori nucleari che funzionano utilizzando come combustibile i rifiuti nucleari. Investe anche in Helion, un'azienda specializzata nella fusione nucleare. Altman sta investendo centinaia di milioni di dollari in scommesse sull'energia nella speranza di una svolta.
Ma questa svolta è ancora lontana. Potrebbero volerci anni o addirittura decenni prima che le nuove forme di produzione energetica forniscano elettricità sufficiente. Fino ad allora, i data center saranno spesso alimentati da energia proveniente da combustibili fossili. Perché l'entusiasmo per l'intelligenza artificiale oggi consuma energia elettrica.
nzz.ch