Negli articoli sull'AI locale ricevo sempre la stessa domanda: "ma quale scheda video mi conviene?". La risposta non è la stessa di una build gaming. Per l'AI il parametro che conta più di tutti è la VRAM, perché determina quale modello entra effettivamente in memoria. Vediamo i casi reali del mercato attuale.
Perché la VRAM è il fattore numero uno
I modelli AI vanno caricati interamente nella memoria della GPU per girare a velocità decenti. Se non ci stanno, vengono "swappati" su RAM di sistema e la performance crolla del 90%. Ecco a grandi linee quanta VRAM serve per i modelli più diffusi (in versione quantizzata Q4-Q5):
- Modello 3B: 2-3 GB
- Modello 7-8B: 5-6 GB
- Modello 13-14B: 8-10 GB
- Modello 30-34B: 18-22 GB
- Modello 70B: 40-48 GB
Aggiungi 1-2 GB di overhead per il sistema. Da qui parte la scelta hardware.
Le opzioni nuove sul mercato (consumer)
RTX 5090 (32 GB)
Top di gamma consumer del 2025/2026. Con i suoi 32 GB fa girare comodamente modelli 30B e con quantizzazioni aggressive arriva a tutti i 70B più piccoli. Prezzo: 2.000-2.500 € quando disponibile. È la scelta migliore per chi può investire e vuole una sola scheda potente.
RTX 5080 (16 GB)
Buona ma 16 GB sono già stretti per modelli avanzati. Va benissimo fino a 13-14B in quantizzazione media. Prezzo: 1.000-1.300 €.
RTX 4090 (24 GB)
Sempre più rara nuova, ma sul mercato dell'usato ancora interessante. 24 GB di VRAM la rendono ottima per modelli fino a 30B. Usata si trova attorno ai 1.300-1.600 €. Buon rapporto qualità-prezzo se la trovi pulita.
RTX 3090 (24 GB) usata
La regina del rapporto VRAM/euro nel 2026. Sul mercato usato si trova a 600-900 €. Lenta rispetto alle nuove ma con 24 GB fa girare gli stessi modelli. Sceglierla per AI è una mossa intelligente, soprattutto se ne metti due in parallelo (48 GB combinati).
RTX 4060 Ti 16 GB
Più lenta ma con buon ammontare di VRAM per il prezzo (450-550 €). Punto d'ingresso per chi vuole sperimentare seriamente senza spendere tanto.
Le opzioni AMD
Le schede AMD costano meno a parità di VRAM ma il software ecosystem è meno maturo (richiede ROCm sotto Linux per le prestazioni migliori).
- RX 7900 XTX (24 GB): ottimo prezzo, sui 700-900 €.
- RX 9070 XT: nuova generazione, 16 GB, prezzo competitivo.
Su Windows con LM Studio o Ollama in modalità Vulkan funzionano, ma le prestazioni restano inferiori a una NVIDIA equivalente.
Schede professionali (per chi fa sul serio)
RTX A6000 / 6000 Ada (48 GB)
Workstation grade. 48 GB di VRAM in una sola scheda permettono di gestire modelli da 70B con buona velocità. Prezzi: 4.500-7.000 € a seconda della generazione. Ha senso per piccoli studi che vogliono usare AI in modo professionale e produttivo.
NVIDIA H100 / H200
Datacenter GPU. Costano 25.000-40.000 € e sono difficili da reperire al di fuori delle big tech. Per scenari di AI in casa o piccola azienda non ha senso.
Setup multi-GPU: quando ha senso
Mettere 2 RTX 3090 da 24 GB ciascuna ti dà 48 GB di VRAM combinata, sufficiente per modelli 70B, a un costo (1.500-1.800 € totali) molto inferiore a una singola RTX 6000 Ada. Lo svantaggio è che richiede:
- Alimentatore robusto (1200W+).
- Case con buon airflow.
- Configurazione software (Ollama e LM Studio supportano multi-GPU automaticamente).
- Tolleranza al rumore e calore.
La mia raccomandazione per la maggior parte dei casi
Se devi comprare una sola GPU per AI in casa nel 2026:
- Budget: RTX 4060 Ti 16 GB o RX 7900 XTX usata.
- Sweet spot: RTX 3090 24 GB usata. Difficile da battere come rapporto VRAM/euro.
- Performance: RTX 4090 24 GB usata o RTX 5090 nuova.
- Professionale: RTX A6000 / 6000 Ada da 48 GB.
Conclusione
Per l'AI locale i criteri sono diversi dal gaming: prima la VRAM, poi tutto il resto. Una scheda usata di generazione precedente ma con tanta memoria vince contro una scheda nuova ma con poca VRAM. Se vuoi assemblare una postazione AI dedicata o aggiornare il tuo PC per cominciare, possiamo consigliarti la configurazione giusta per il tuo budget e i modelli che vuoi usare.