La nuova guerra del calcolo AI: cosa cambia per le imprese

IA nel Settore Energetico Italiano: Transizione VerdeBy 3L3C

La scelta di Meta sulle TPU di Google segna l’inizio della guerra del calcolo AI. Ecco cosa cambia per costi, rischi e strategie delle imprese italiane.

intelligenza artificialeTPU GoogleGPU Nvidiastrategia cloudlogistica e supply chaincompute AItrasformazione digitale
Share:

La nuova guerra del calcolo AI: cosa cambia per le imprese

Nel 2025 Meta prevede oltre 70 miliardi di dollari di CapEx dedicati all’infrastruttura AI. Non per nuovi social network, ma per pura energia computazionale. E ora sta seriamente valutando di spostare una fetta di questo investimento sulle TPU di Google, dopo anni di dipendenza quasi totale dalle GPU Nvidia.

Questo passaggio segna uno spartiacque: la partita dell’intelligenza artificiale non si gioca più solo sui modelli, ma su chi controlla il calcolo che li alimenta. Per chi lavora in azienda – dalla manifattura alla logistica, dai servizi finanziari al retail – questo non è un tema da big tech: è un tema di costi, rischi di fornitura e strategia digitale.

In questo articolo vediamo:

  • perché Meta guarda alle TPU di Google e cosa significa davvero;
  • come sta cambiando l’equilibrio tra GPU, chip specializzati e cloud;
  • cosa devono fare le imprese italiane per non trovarsi ostaggio del costo del calcolo nei prossimi 2-3 anni, soprattutto in settori come logistica e supply chain.

1. Dalla corsa ai modelli alla corsa al calcolo

La fase 2022–2024 dell’AI è stata dominata dalla domanda: “Qual è il modello migliore?”. GPT-4, Gemini, Llama, modelli open source, benchmark, leaderboard.

La fase 2025–2027 sarà diversa: la domanda chiave diventa “quanto mi costa il calcolo necessario per far girare questi modelli su scala?”. Chi guida l’AI nelle imprese sta iniziando a scoprire che:

  • il costo di training di un modello frontier supera facilmente il miliardo di dollari;
  • il costo di inference (far girare i modelli in produzione) esplode quando si passa da un POC a migliaia di utenti e processi;
  • la disponibilità di GPU non è infinita: dipende da tempi di produzione, supply chain dei chip, consumi energetici e investimenti in data center.

Meta che guarda alle TPU di Google è il segnale più chiaro di questo cambio di paradigma: la monocultura GPU non basta più. Chi vuole fare AI su scala deve diversificare l’infrastruttura di calcolo.

Per una media impresa italiana può sembrare distante, ma non lo è: se oggi paghi il cloud “a consumo” per i tuoi progetti AI, domani pagherai un mercato sempre più volatile, condizionato da queste scelte dei giganti.

2. Perché Meta guarda seriamente alle TPU di Google

Meta non si muove per moda tecnologica. Si muove per matematica economica.

Le TPU (Tensor Processing Unit) sono chip specializzati per l’AI progettati da Google. Il loro punto di forza non è solo la potenza, ma lo stack integrato:

  • architettura hardware pensata per il training dei transformer;
  • rete ad altissima capacità tra i nodi del data center;
  • compilatori e strumenti software ottimizzati;
  • integrazione nativa con il cloud di Google.

Per Meta, anche un 10–15% di riduzione del costo per FLOP (operazione in virgola mobile) significa centinaia di milioni di dollari risparmiati ogni anno. A questi livelli, cambiare piattaforma di calcolo non è una scelta tecnologica, è una decisione di bilancio.

2.1 Il valore dell’integrazione verticalizzata

Lo stack TPU di Google è verticalmente integrato: chip, rete, data center, orchestrazione software, modelli. Questo consente di:

  • ridurre gli sprechi computazionali;
  • prevedere meglio performance e costi nel tempo;
  • avere una catena di fornitura più sotto controllo.

Questo è esattamente il motivo per cui i grandi player stanno progettando i propri chip:

  • Amazon con Trainium e Inferentia in AWS;
  • Microsoft con i chip Athena e la partnership con OpenAI;
  • Tesla con Dojo per il training massivo di reti neurali per la guida autonoma;
  • Meta stessa con MTIA per l’inferenza.

La concorrenza non è più soltanto sul “modello migliore”, ma su chi riesce a costruire l’infrastruttura più efficiente e prevedibile.

2.2 I segnali dei mercati finanziari

Quando si è diffusa la notizia del possibile uso delle TPU da parte di Meta:

  • Alphabet (Google) è salita di valore;
  • Nvidia ha perso terreno;
  • Broadcom, che collabora con Google sulle TPU, ha continuato la sua corsa.

Non è semplice speculazione: gli investitori stanno iniziando a scommettere non solo sulla produzione di GPU, ma su chi controlla:

  • la potenza di calcolo;
  • la filiera produttiva del chip;
  • le soluzioni integrate (chip + cloud + software).

Per chi lavora in azienda, questa è una bussola: l’AI diventa sempre più un tema industriale, non solo software.

3. Oligopolio del compute: chi controlla il calcolo detta le regole

La direzione è chiara: sta nascendo un nuovo oligopolio del calcolo AI. Non basato solo sui chip, ma sulla combinazione di tre livelli:

  1. Progettazione dei chip (GPU, TPU, ASIC specializzati);
  2. Infrastruttura cloud e data center (capacità, disponibilità, energia elettrica);
  3. Ecosistema software e modelli proprietari (framework, API, servizi gestiti).

Chi controlla tutti e tre gli strati non sta semplicemente vendendo “ore di GPU”: sta imponendo gli standard operativi su cui si costruirà la prossima generazione di applicazioni AI.

Questo ha due implicazioni importanti per le imprese:

  • il rischio di lock-in cresce: se costruisci tutto su un solo provider, cambiare tra 2 anni può diventare costosissimo;
  • il costo marginale del calcolo diventa una variabile strategica di prodotto, non solo di IT.

In pratica: se domani vuoi usare AI generativa per ottimizzare la tua logistica, l’algoritmo non sarà il problema principale. Il problema sarà quanto ti costa ogni ottimizzazione, ogni previsione, ogni richiesta al modello e quanto sei esposto alle politiche di prezzo di chi controlla il calcolo.

4. Perché la monocultura GPU non è più sostenibile

Le GPU Nvidia hanno reso possibile l’ondata di AI generativa. Ma basare l’intero settore su un solo tipo di chip e un solo vendor è diventato rischioso, per almeno due ragioni:

  • costo in crescita: cluster basati su H100 e H200 hanno costi molto alti, sia in acquisto (CapEx) sia in utilizzo nel cloud (OpEx);
  • rischio di fornitura: la produzione è limitata, la domanda è esplosa, ogni intoppo nella supply chain può bloccare progetti e far impennare i prezzi.

Per una grande tech company questo significa miliardi. Per un’impresa italiana significa qualcosa di più semplice ma concreto:

“Se baso tutti i miei casi d’uso AI su una sola tecnologia e su un solo provider cloud, accetto in anticipo qualunque aumento di prezzo futuro.”

La diversificazione dell’infrastruttura di calcolo – GPU diverse, chip specializzati, multi-cloud – non è più un tema da architetti IT nerd. È un tema di resilienza del business.

5. Cosa significa per le imprese italiane (e per la logistica)

La domanda vera è: che impatto ha tutto questo su un’azienda italiana che sta investendo in AI? Soprattutto se si muove in settori ad alta intensità di dati e processi come logistica, trasporti, manufacturing, retail e supply chain.

5.1 Quattro decisioni da prendere subito

Chi guida la trasformazione digitale o l’innovazione oggi dovrebbe mettere a calendario queste decisioni entro i prossimi 6-12 mesi:

  1. Pianificare i costi di calcolo, non subirli

    • Stimare il costo del calcolo per ogni caso d’uso AI chiave (per esempio: ottimizzazione dei percorsi, previsione della domanda, assistenti virtuali per magazzino).
    • Inserire questi costi nei business case, non considerarli un “dettaglio tecnico”.
  2. Misurare la dipendenza dai vendor

    • Quanti servizi AI usiamo oggi da un singolo cloud provider?
    • Quante parti critiche delle applicazioni dipendono da una sola architettura (per esempio solo GPU Nvidia)?
  3. Valutare alternative e ibridazioni

    • Multi-cloud o almeno strategia “cloud primario + cloud di backup” per i workload AI critici.
    • Uso di modelli più compatti ed efficienti, addestrati su misura, invece di un unico modello enorme per tutto.
    • Esplorare servizi basati su chip specializzati (come TPU o analoghi offerti dai provider) quando portano reali vantaggi di costo/prestazioni.
  4. Integrare AI strategy e cloud strategy
    Molte aziende trattano ancora AI e cloud come due temi separati. Non funziona più. Chi progetta l’AI deve sedersi allo stesso tavolo di chi negozia contratti cloud e data center.

5.2 Un esempio concreto nella logistica

Prendiamo una realtà italiana di logistica e trasporti che vuole portare l’AI “sul serio” nella propria supply chain:

  • previsioni di domanda per ridurre stock e rotture di stock;
  • ottimizzazione dinamica dei percorsi dei mezzi;
  • riconoscimento visivo per controllo qualità e conteggio colli;
  • assistenti AI per gli operatori di magazzino.

Se ogni singolo servizio AI si appoggia a un unico grande modello generativo pesante, erogato dal cloud di un singolo provider, può funzionare nella fase pilota. Ma quando si passa a migliaia di chiamate al giorno:

  • la fattura cloud cresce in modo non lineare;
  • ogni aumento di prezzo deciso dal provider impatta direttamente il margine operativo;
  • qualunque problema di capacità del provider blocca intere operation.

Un approccio più maturo potrebbe essere:

  • usare modelli specializzati più piccoli per task ripetitivi (es. OCR documenti trasporto, classificazione foto pallet), magari eseguibili anche on edge;
  • riservare i modelli generativi più pesanti a casi ad alto valore (es. supporto decisionale, analisi scenari complessi);
  • distribuire i carichi su più region e, dove ha senso, su più cloud.

Risultato: meno dipendenza, più controllo sul costo marginale di ogni inferenza AI.

6. Come preparare l’azienda alla “guerra del calcolo”

La buona notizia è che non serve diventare Google per gestire bene il tema del calcolo. Servono però alcune scelte chiare.

6.1 Portare il calcolo nel Comitato Investimenti

Il costo del compute AI deve essere trattato come un investimento industriale, non come una spesa IT operativa. Quando si valuta un progetto AI, la domanda da farsi è:

  • quanto calcolo mi serve oggi;
  • quanto ne servirà a regime tra 24 mesi;
  • quali sono gli scenari di costo se il provider aumenta i prezzi del 20–30%.

Se queste domande non hanno risposta, il progetto è fragile, anche se il modello funziona benissimo.

6.2 Costruire una “mappa del calcolo” aziendale

Ogni azienda che sta entrando seriamente nell’AI dovrebbe avere una mappa chiara:

  • dove girano i miei modelli (on-prem, cloud A, cloud B);
  • quale tipo di hardware usano (GPU, CPU, chip specializzati);
  • quali processi core dipendono da quel calcolo.

Questa mappa è la base per decidere dove diversificare e dove invece consolidare per ottenere economie di scala.

6.3 Scegliere partner che parlano di costo marginale, non solo di accuracy

Quando valuti partner tecnologici per progetti AI, una domanda discriminante è:

“Come pensate il costo marginale per utilizzo del modello in produzione?”

Se la risposta è solo “il nostro modello è più accurato”, manca un pezzo. I partner giusti portano sul tavolo:

  • stime di costo per 1.000, 10.000, 100.000 richieste al modello;
  • strategie di ottimizzazione (quantizzazione, caching, modelli ibridi);
  • opzioni multi-cloud o almeno exit strategy chiare.

Conclusione: l’AI come infrastruttura industriale

La scelta di Meta di valutare le TPU di Google non è un dettaglio tecnico, è un segnale industriale forte: la competizione nell’AI si sposta dal modello al calcolo. Chi controlla l’energia computazionale – chip, data center, software di orchestrazione – controlla la velocità dell’innovazione.

Per le imprese italiane, soprattutto in settori come logistica e supply chain, questo significa una cosa: l’AI non è più solo un algoritmo “intelligente” da sperimentare, ma una voce strutturale di costo e di rischio. Ignorare il tema del calcolo oggi significa pagare il conto (salato) tra due anni.

Il momento giusto per agire è adesso: mappare dove gira il calcolo, capire da chi dipendi, stimare il costo marginale dei tuoi casi d’uso AI e costruire una strategia che tenga insieme modelli, cloud e infrastruttura.

Chi farà questo passo oggi non solo risparmierà domani, ma si troverà in vantaggio quando la guerra del calcolo entrerà nella sua fase più intensa.

🇮🇹 La nuova guerra del calcolo AI: cosa cambia per le imprese - Italy | 3L3C