Il mercato delle GPU professionali sta vivendo una fase storica. La domanda esplosiva di calcolo per intelligenza artificiale ha fatto schizzare i prezzi e prosciugato la disponibilità di alcuni modelli, con effetti a cascata anche su segmenti adiacenti. Ecco cosa sta succedendo e come questo riguarda anche aziende che non si occupano di AI.
Le dinamiche di base
Tre fattori si combinano:
- Domanda iperbolica: le big tech (OpenAI, Google, Meta, Anthropic, Microsoft) acquistano GPU NVIDIA H100/H200/B200 in lotti da decine di migliaia di unità. Ogni datacenter AI consuma in poche settimane quello che il mercato consumer assorbe in un anno.
- Offerta limitata: la produzione di chip avanzati passa da pochissime fonderie (TSMC in primis), con vincoli fisici sulla velocità di espansione.
- Domanda secondaria sui segmenti adiacenti: anche le RTX professionali e le RTX consumer di fascia alta vengono acquistate per usi AI alternativi.
L'impatto sui prezzi
GPU datacenter (H100, H200, B200)
Allocate quasi interamente ai grandi cloud provider. Il mercato secondario per chi ne vuole una manciata è praticamente assente, e i prezzi quando disponibili superano le sei cifre.
GPU professionali (RTX 6000 Ada, RTX A6000)
Aumenti del 30-50% sui prezzi di listino e tempi di consegna estesi. Sono diventate la scelta di "ripiego" per chi non riesce ad accedere ai modelli datacenter.
GPU consumer di fascia alta (RTX 4090, 5090)
Disponibilità a singhiozzo, prezzi gonfiati, soprattutto sulle versioni con più VRAM. Una RTX 4090 a ridosso del lancio era una scelta tecnica; oggi è anche un investimento speculativo.
Effetti collaterali sul mondo aziendale
Sviluppatori e creators
Chi lavora in design 3D, video editing, rendering subisce indirettamente il rincaro. Le workstation professionali sono diventate più costose o meno potenti a parità di prezzo.
Aziende che vogliono fare AI internamente
Il sogno dell'AI on-premise per dati sensibili è frenato dai costi: una macchina seria per inferenza locale di modelli moderni richiede investimenti significativi e non sempre giustificabili.
Cloud computing GPU
Anche il cloud GPU (Azure, AWS, GCP) ha subito aumenti, e alcune istanze sono difficili da prenotare. I prezzi orari sono saliti.
Strategie possibili
Per chi deve davvero usare AI
In molti casi la risposta razionale è il cloud, anche se più caro all'ora: si paga solo quando serve, senza investire 20.000 euro in hardware che potrebbe essere obsoleto in tre anni.
Per workstation di sviluppo
RTX 4080/5080 con buona VRAM per i task locali, cloud per quelli pesanti. Modello ibrido conveniente.
Per applicazioni AI specifiche
Modelli più piccoli e specializzati spesso bastano e girano su hardware molto più economico. Non sempre serve il modello da 70 miliardi di parametri: spesso uno da 7 miliardi quantizzato fa il lavoro.
Per aziende generaliste
Probabilmente il momento sbagliato per investire pesantemente in GPU on-premise per AI generaliste. Meglio sperimentare in cloud, capire cosa serve davvero, e investire in hardware solo quando i bisogni sono chiari.
Quando si stabilizzerà
I principali analisti prevedono una graduale normalizzazione nei prossimi 18-24 mesi, con espansione delle capacità produttive e introduzione di nuove generazioni di chip dedicati. È improbabile però tornare ai livelli pre-2023.
Conclusione
Il mercato GPU del 2026 richiede pianificazione attenta e flessibilità. Possiamo aiutarti a valutare se i tuoi progetti AI hanno senso on-premise oggi, oppure se conviene partire con architetture cloud-first e rivedere quando il mercato si calmerà.