Le aziende italiane hanno scoperto le potenzialità dell'AI generativa, ma molte hanno frenato dopo la prima fase entusiastica. Il motivo: i dati che invii a ChatGPT, Copilot, Gemini escono dal tuo perimetro aziendale. Per chi gestisce contratti riservati, dati sanitari, progetti industriali, segreti commerciali, è un problema serio. La soluzione si chiama AI on-premise.
Cosa significa "AI on-premise"
Significa eseguire i modelli AI su server controllati dall'azienda, dentro la propria rete (oppure in cloud privato dedicato). I dati elaborati non lasciano mai l'infrastruttura aziendale. È l'opposto del SaaS classico in cui ogni prompt viene inviato ai server del provider.
Perché alcune aziende non possono usare l'AI cloud
1. Compliance GDPR
I termini d'uso di molti servizi AI consumer prevedono che i dati possano essere utilizzati per migliorare i modelli. Anche quando esistono opzioni "enterprise" che lo escludono, il trasferimento extra-UE resta un problema da gestire formalmente.
2. NIS2 e settori regolati
Aziende soggette alla direttiva NIS2 (settori essenziali e importanti) hanno obblighi crescenti sulla gestione del rischio della supply chain digitale. Inviare dati operativi a un fornitore extra-UE è un rischio difficile da giustificare.
3. Segreti industriali
Progetti di R&D, formule, processi produttivi, codice sorgente proprietario: una volta usciti dall'azienda, anche solo per essere "parsati" da un'AI, è impossibile garantire dove finiscano davvero.
4. Settore sanitario, legale, finanziario
Cartelle cliniche, atti, documentazione fiscale: spesso semplicemente non è ammissibile inviarli a servizi esterni.
Cosa serve per un'AI on-premise aziendale
Hardware server
Per uso aziendale serio, una postazione dedicata con:
- Server GPU (workstation o server rack).
- 1-2 GPU professionali (RTX 6000 Ada da 48 GB, oppure 2x RTX 4090/5090 in parallelo).
- 64-256 GB di RAM di sistema.
- Storage NVMe veloce per modelli e knowledge base.
- UPS, raffreddamento adeguato, accesso di rete sicuro.
Costo tipico hardware: 8.000-25.000 € a seconda della scala.
Software stack
- Ollama o vLLM come motore di inferenza.
- Open WebUI come interfaccia utente per i dipendenti.
- LangChain o LlamaIndex per costruire applicazioni RAG (Retrieval-Augmented Generation).
- Vector database (Qdrant, Weaviate, Chroma) per indicizzare i documenti aziendali.
- SSO aziendale per controllo accessi.
Modelli
I migliori candidati per uso aziendale on-premise:
- Llama 3.3 70B: equilibrio fra qualità e gestibilità.
- Mistral Large: forte sull'italiano, licenza commerciale richiesta.
- Qwen 2.5 72B: ottimo per task tecnici e analisi dati.
- DeepSeek V3: scelta forte per ragionamento complesso (richiede più risorse).
Casi d'uso aziendali concreti
1. Assistente documentale
L'AI ha indicizzato tutti i contratti, procedure interne, manuali tecnici aziendali. I dipendenti chiedono in linguaggio naturale e ricevono risposte con riferimenti precisi ai documenti sorgente. Niente esce dall'azienda.
2. Analisi e classificazione email
Smistamento automatico delle richieste in arrivo (commerciali, tecniche, urgenze), generazione di bozze di risposta basate su template aziendali.
3. Coding assistant per software house
Alternativa a GitHub Copilot Enterprise quando il codice sorgente è troppo sensibile. Modelli come Qwen 2.5 Coder 32B funzionano bene su workstation singola.
4. Estrazione dati strutturati
Trasformazione di fatture passive, ordini, documenti firmati in dati strutturati per il gestionale, senza inviare nulla a servizi esterni.
5. Ricerca semantica nelle norme
Per studi legali e di consulenza: indicizzazione di codici, sentenze, circolari, ricerca naturale ("dove sta scritto che...").
Cosa NON aspettarsi
Un'onestà necessaria: i modelli open source on-premise non sono ancora al livello di GPT-5 o Claude Opus. Per task molto complessi (creatività, ragionamento sofisticato) la differenza si sente. Ma per il 90% dei task aziendali standard sono più che sufficienti, e il vantaggio della privacy supera la differenza qualitativa.
Il modello ibrido
Una strategia frequente è ibridare:
- AI on-premise per task con dati riservati (gestionale, contratti, R&D).
- AI cloud (con accordi enterprise rigorosi) per task generici (drafting marketing, ricerche pubbliche).
Costi e tempi di implementazione
Per una PMI con 20-50 dipendenti, una postazione AI on-premise con assistente documentale richiede:
- Hardware: 10.000-15.000 €.
- Implementazione iniziale: 3-6 settimane di lavoro.
- Manutenzione: contratto modesto annuale.
L'alternativa cloud con strumenti enterprise costa spesso più sui 3-5 anni e non risolve il problema dei dati che escono.
Conclusione
L'AI on-premise non è più materia da grandi aziende: oggi è alla portata anche di PMI strutturate. Se la tua azienda ha dati che non possono uscire e vorresti comunque sfruttare l'AI, possiamo eseguire un assessment per capire se conviene, e progettare l'infrastruttura giusta.