Nvida pubblicherà i guadagni in mezzo alla spesa per le infrastrutture, preoccupazioni su DeepSeek

Nvidia dovrebbe pubblicare i risultati finanziari del quarto trimestre mercoledì dopo la chiusura delle attività.
Si prevede che darà gli ultimi ritocchi a uno degli anni più straordinari di sempre per una grande azienda. Gli analisti intervistati da FactSet prevedono 38 miliardi di dollari di vendite per il trimestre conclusosi a gennaio, il che rappresenterebbe un aumento del 72% su base annua.
Il trimestre di gennaio chiuderà il secondo anno fiscale in cui le vendite di Nvidia sono più che raddoppiate. È una serie mozzafiato guidata dal fatto che le unità di elaborazione grafica del data center di Nvidia, o GPU, sono hardware essenziali per la creazione e l'implementazione di servizi di intelligenza artificiale come ChatGPT di OpenAI. Negli ultimi due anni, le azioni Nvidia sono aumentate del 478%, diventando a volte la società statunitense più preziosa con una capitalizzazione di mercato di oltre 3 trilioni di $.
Ma negli ultimi mesi le azioni di Nvidia hanno subito un rallentamento, poiché gli investitori si chiedono quale sarà la futura direzione intrapresa dall'azienda produttrice di chip.
Viene scambiato allo stesso prezzo dell'ottobre scorso e gli investitori sono cauti su qualsiasi segnale che i clienti più importanti di Nvidia potrebbero stringere la cinghia dopo anni di grandi spese in conto capitale. Ciò è particolarmente preoccupante sulla scia delle recenti innovazioni nell'intelligenza artificiale provenienti dalla Cina.
Gran parte delle vendite di Nvidia vanno a una manciata di aziende che costruiscono enormi server farm, solitamente da affittare ad altre aziende. Queste aziende cloud sono solitamente chiamate "hyperscaler". Lo scorso febbraio, Nvidia ha affermato che un singolo cliente rappresentava il 19% del suo fatturato totale nell'anno fiscale 2024.
Gli analisti di Morgan Stanley hanno stimato questo mese che Microsoft rappresenterà quasi il 35% della spesa nel 2025 per Blackwell, l'ultimo chip AI di Nvidia. Google è al 32,2%, Oracle al 7,4% e Amazon al 6,2%.
Ecco perché qualsiasi segnale che Microsoft o i suoi rivali potrebbero ritirare i loro piani di spesa potrebbe far tremare le azioni di Nvidia.
La scorsa settimana, gli analisti di TD Cowen hanno dichiarato di aver appreso che Microsoft ha annullato i contratti di locazione con gli operatori di data center privati, ha rallentato il processo di negoziazione per stipulare nuovi contratti di locazione e ha modificato i piani di spesa per i data center internazionali a favore delle strutture statunitensi.
Il rapporto ha sollevato timori sulla sostenibilità della crescita dell'infrastruttura AI. Ciò potrebbe significare una minore domanda di chip Nvidia. Michael Elias di TD Cowen ha affermato che le conclusioni del suo team indicano "una potenziale posizione di eccesso di offerta" per Microsoft. Le azioni Nvidia sono scese del 4% venerdì.
Lunedì Microsoft ha ribattuto, affermando che intende comunque spendere 80 miliardi di dollari in infrastrutture nel 2025.
"Mentre potremmo strategicamente adattare o ricalibrare la nostra infrastruttura in alcune aree, continueremo a crescere fortemente in tutte le regioni. Ciò ci consente di investire e allocare risorse in aree di crescita per il nostro futuro", ha detto un portavoce alla CNBC.
Nell'ultimo mese , la maggior parte dei clienti chiave di Nvidia ha pubblicizzato grandi investimenti. Alphabet punta a 75 miliardi di dollari in spese in conto capitale quest'anno, Meta spenderà fino a 65 miliardi di dollari , mentre Amazon punta a spenderne 100 miliardi .
Gli analisti affermano che circa la metà delle spese in conto capitale per l'infrastruttura AI finisce con Nvidia. Molti hyperscaler si dilettano con le GPU di AMD e stanno sviluppando i propri chip AI per ridurre la loro dipendenza da Nvidia, ma l'azienda detiene la maggioranza del mercato per i chip AI all'avanguardia.
Finora, questi chip sono stati utilizzati principalmente per addestrare modelli di intelligenza artificiale all'avanguardia, un processo che può costare centinaia di milioni di dollari. Dopo che l'intelligenza artificiale è stata sviluppata da aziende come OpenAI, Google e Anthropic, sono necessari magazzini pieni di GPU Nvidia per servire quei modelli ai clienti. Ecco perché Nvidia prevede che i suoi ricavi continueranno a crescere.
Un'altra sfida per Nvidia è l'emergere il mese scorso della startup cinese DeepSeek, che ha rilasciato un modello di intelligenza artificiale efficiente e " distillato ". Aveva prestazioni sufficientemente elevate da suggerire che miliardi di dollari di GPU Nvidia non sono necessari per addestrare e utilizzare l'intelligenza artificiale all'avanguardia. Ciò ha temporaneamente affondato le azioni di Nvidia, causando all'azienda una perdita di quasi 600 miliardi di dollari in capitalizzazione di mercato.
Mercoledì, il CEO di Nvidia, Jensen Huang, avrà l'opportunità di spiegare perché l'intelligenza artificiale continuerà ad aver bisogno di una capacità GPU sempre maggiore, anche dopo l'imponente sviluppo dell'anno scorso.
Di recente, Huang ha parlato della "legge di scala", un'osservazione di OpenAI del 2020 secondo cui i modelli di intelligenza artificiale migliorano quanto più dati e risorse di elaborazione vengono utilizzate per crearli.
Huang ha affermato che il modello R1 di DeepSeek indica una nuova piega nella legge di scalabilità che Nvidia chiama " Test Time Scaling ". Huang ha sostenuto che il prossimo percorso importante per il miglioramento dell'IA è l'applicazione di più GPU al processo di distribuzione dell'IA o inferenza. Ciò consente ai chatbot di "ragionare" o generare molti dati nel processo di elaborazione di un problema.
I modelli AI vengono addestrati solo poche volte per essere creati e perfezionati. Ma i modelli AI possono essere chiamati milioni di volte al mese, quindi usare più elaborazione all'inferenza richiederà più chip Nvidia distribuiti ai clienti.
"Il mercato ha risposto a R1 dicendo 'oh mio dio, l'IA è finita', che l'IA non ha più bisogno di fare altro calcolo", ha detto Huang in un'intervista preregistrata la scorsa settimana . "È esattamente l'opposto".
CNBC