Un anno fa, mettere in piedi un’infrastruttura della stessa potenza significava investire centinaia di migliaia di euro. Oggi lo fai su un PC da 3.999 $.
Si chiama NVIDIA DGX Spark: una macchina da scrivania con la potenza di calcolo che, solo nel 2024, era roba da server da datacenter. Dentro c’è il nuovo chip Blackwell GB10, 128 GB di memoria unificata e fino a 1 PFLOP di potenza FP4.
Tradotto: può far girare modelli da 100–200 miliardi di parametri (quantizzati).
In pratica, ci fai girare localmente un modello open-weight tipo Llama 3 70B, Mixtral 8×22B, o equivalenti al livello di GPT-3.5.
Sì: un ChatGPT 3.5 “locale”, sulla tua scrivania.
I numeri (che fanno riflettere)
–> Un anno fa: una workstation AI seria costava intorno ai 15 mila euro,
il costo per usare GPT-3.5 via API era di circa 2 dollari ogni milione di token.
–>Oggi: il DGX Spark costa 3.999 $ (-60% in 12 mesi) e modelli open-weight equivalenti a GPT-3.5 girano localmente, senza pagare ogni chiamata.
Quello che ieri era “cloud-only”, oggi sta su una scrivania da ufficio.
Cloud o Locale?
Cloud → resta imbattibile per i modelli di ultima generazione di OpenAi e Claude: modelli chiusi, potenze mostruose, zero setup.
Locale → privacy totale, nessuna latenza, cicli di sviluppo rapidissimi, costi fissi e prevedibili.
Futuro → ibrido: cloud per l’intelligenza generale, desktop per i modelli personali e proprietari.
La rivoluzione non è più solo nel software.
Sta nell’hardware che democratizza la potenza:
– chip ottimizzati per AI (FP4, quantizzazione, memoria unificata);
– prestazioni che raddoppiano ogni 6 mesi, mentre i costi crollano;
– OEM come Dell, HP e Lenovo che portano “super-PC” AI anche nelle PMI.
L’AI non è più un servizio: è una macchina.
E per 3.999 dollari… puoi metterla sulla tua scrivania.


Comments are closed