Il rally dei semiconduttori è stato uno dei temi caldi degli ultimi mesi. Dal minimo del 30 marzo 2026 alla chiusura del 24 aprile, SOXX, l’ETF sui semiconduttori, è salito di circa il 49%.
In questo momento il mercato sta comprando tutto ciò che può avere un ruolo nella costruzione dell’infrastruttura AI. GPU, CPU, memoria, storage, sistemi di raffreddamento, data center, rete elettrica. Ogni componente collegato alla capacità di calcolo viene trattato come parte di una catena industriale destinata a crescere ancora.
È una tesi coerente con quanto abbiamo già analizzato in due articoli precedenti. Nel primo, l’AI ha un problema fisico: dipende da energia, elio, rete elettrica e infrastrutture reali. Nel secondo, GE Vernova e Vertiv beneficiano della spesa per l’AI: alcuni gruppi industriali stanno già intercettando una parte concreta di questo ciclo di investimenti.
Il tema si collega anche a un’altra riflessione già affrontata sul Circolo, quella sulla bolla AI richiamata da Michael Burry. In quel caso il punto era il rapporto tra costi certi oggi e ricavi futuri ancora incerti. Qui il ragionamento si sposta sulla filiera: quanta capacità viene ordinata per rispondere a una scarsità presente e quanta rischia di arrivare quando il mercato avrà già cambiato prezzo, margini o aspettative?
Nessuno di noi può sapere davvero quanta parte di questa scarsità sia già nei prezzi e quanta capacità futura sia già stata ordinata prima ancora di diventare operativa.
La scarsità riguarda il compute già disponibile
Il mercato parla di shortage di compute, cioè di scarsità della capacità di calcolo disponibile.
La scarsità più rilevante oggi riguarda il compute disponibile e utilizzabile: GPU già installate, data center già alimentati, sistemi già raffreddati, capacità già collegata alla rete e pronta per essere venduta o usata da laboratori AI, hyperscaler e clienti enterprise.
Tra una GPU prodotta e una GPU realmente produttiva c’è una distanza industriale. Servono data center, energia elettrica, autorizzazioni, sistemi di raffreddamento, connessioni, personale tecnico, finanziamenti e contratti commerciali. Ogni ritardo in uno di questi passaggi trasforma un componente prezioso in capacità potenziale.
Questo è il punto più delicato del ciclo attuale. Il mercato sta premiando le aziende legate al compute come se la domanda futura potesse assorbire quasi automaticamente tutta la capacità ordinata. Ma l’assorbimento richiede tempi, infrastrutture e margini sostenibili.
Gli ordini anticipano la domanda
La memoria della scarsità condiziona le decisioni industriali. Quando un settore teme di restare senza componenti critici, tende a ordinare più del necessario, prima del necessario e spesso a prezzi meno favorevoli.
Nel caso dell’AI, questa dinamica riguarda molte parti della filiera: memoria ad alta banda, GPU, CPU server, storage, sistemi di raffreddamento, componenti elettrici, trasformatori, soluzioni per power management e data center modulari.
Nvidia resta il centro del ciclo. Nel bilancio annuale 2026, la società indica impegni legati a manufacturing, supply e capacity per 95,2 miliardi di dollari. È una cifra coerente con un gruppo che vuole sostenere una domanda enorme e difendere il proprio ritmo di crescita.
Il problema per gli investitori nasce quando questa logica si estende all’intera filiera. Se tutti ordinano capacità nello stesso momento, la scarsità presente può trasformarsi in eccesso futuro.
L’efficienza dei modelli può modificare il fabbisogno
C’è un altro elemento da considerare: l’efficienza.
La domanda di compute cresce perché aumentano gli utenti, aumentano gli strumenti AI e aumentano i casi d’uso. Allo stesso tempo, i modelli più avanzati possono consumare più token (i gettoni a consumo dell’AI), più tempo macchina e più risorse per alcune attività. Anthropic, nel presentare Claude Opus 4.7, ha segnalato anche cambiamenti tecnici che possono incidere sull’utilizzo dei token.
Questo mantiene alta la pressione sulla capacità disponibile.
Ma il settore ha anche un incentivo opposto: ridurre il costo per unità di output. Un esempio arriva da OpenAI: nel presentare GPT-5.5, la società ha indicato un prezzo superiore rispetto a GPT-5.4, ma anche una maggiore efficienza nell’uso dei token, soprattutto in Codex, dove il modello dovrebbe produrre risultati migliori con meno token nella maggior parte dei casi. Se questa direzione si consolidasse, parte del fabbisogno futuro di compute potrebbe essere rivisto.
Il rischio è una differenza tra la capacità che il mercato sta prezzando oggi e la capacità che verrà utilizzata con margini accettabili nei prossimi anni.
Il precedente degli investimenti infrastrutturali
Ogni grande ciclo tecnologico attraversa una fase fisica.
Internet ha avuto fibra, server farm e telecomunicazioni. Il cloud ha avuto data center, reti e semiconduttori. L’AI sta avendo GPU, memoria, energia elettrica, raffreddamento e nuove architetture di calcolo.
Questi cicli creano vincitori industriali reali. GE Vernova, Vertiv e altri fornitori di infrastruttura possono continuare a beneficiare degli investimenti legati ai data center. La domanda di energia e sistemi elettrici resta un tema concreto.
La parte da monitorare è il ritmo. Se gli investimenti crescono più velocemente della capacità di generare ricavi, i multipli di mercato diventano più fragili. Se la capacità ordinata arriva tutta insieme, il potere di prezzo può cambiare. Se la crescita degli utenti rallenta o i clienti diventano più selettivi, gli asset acquistati nei momenti di maggiore scarsità rischiano di rendere meno del previsto.
La domanda giusta per l’investitore
L’investitore deve separare tre piani.
Il primo è la domanda strutturale di AI. Su questo piano, il trend resta forte: più strumenti, più automazione, più inferenza, più integrazione nei software aziendali.
Il secondo è la scarsità operativa. Qui il problema è immediato: la capacità pronta all’uso può essere insufficiente rispetto alla domanda corrente.
Il terzo è la capacità futura già incorporata nei prezzi. Qui il rischio aumenta, perché il mercato anticipa ricavi, margini e tassi di utilizzo che dipendono da molti passaggi ancora aperti.
La tesi dell’eccesso di capacità va quindi formulata con prudenza. Oggi non abbiamo una prova definitiva di sovradimensionamento. Abbiamo però segnali di una corsa agli ordini, valutazioni elevate in molte parti della filiera e una dipendenza crescente da tempi di costruzione, disponibilità energetica e utilizzo effettivo degli asset.
Il mercato sta comprando la scarsità di compute. La domanda successiva è quanta capacità futura sia già stata pagata nei prezzi.
Conclusione
L’AI continuerà ad avere bisogno di infrastruttura fisica. Questa resta la base industriale del tema: energia, rete, raffreddamento, memoria, semiconduttori e data center.
La fase attuale aggiunge un livello di complessità. Una scarsità reale nel compute operativo può convivere con un eccesso di ordini lungo la filiera. Per questo il prossimo passaggio non sarà solo capire chi vende componenti all’AI, ma chi riuscirà a trasformare quella capacità in ricavi sostenibili.
L’articolo rientra nell’attività di analisi e informazione economico-finanziaria della redazione, impegnata da oltre vent’anni nello studio dei mercati e delle dinamiche industriali.
Disclaimer: Il presente contenuto ha finalità esclusivamente informative e non costituisce sollecitazione al pubblico risparmio né raccomandazione personalizzata di investimento. Ogni decisione deve essere valutata in autonomia alla luce della propria situazione patrimoniale e del proprio profilo di rischio.
Fonti
Fonte: SOXX historical data, StockAnalysis: https://stockanalysis.com/etf/soxx/history/
Fonte: Nvidia commitments, FY 2026: https://app.edgar.tools/companies/NVDA/disclosures/commitments-contingencies
Fonte: Anthropic, Claude Opus 4.7: https://www.anthropic.com/news/claude-opus-4-7
Fonte: OpenAI to acquire Astral: https://openai.com/index/openai-to-acquire-astral/
Fonte: Circolo degli Investitori, “L’AI ha un problema fisico”: https://www.circoloinvestitori.it/lai-ha-un-problema-fisico-dipende-da-elio-energia-e-rete-elettrica/
Fonte: Circolo degli Investitori, “GE Vernova e Vertiv beneficiano della spesa per l’AI”: https://www.circoloinvestitori.it/ge-vernova-e-vertiv-beneficiano-della-spesa-per-lai/
Fonte: OpenAI, Introducing GPT-5.5: https://openai.com/index/introducing-gpt-5-5/
Se vuoi scoprire come decidiamo noi quando investiamo:
Guarda il video.
