Lo scorso mese, l’azienda cinese di AI DeepSeek ha presentato due innovazioni attraverso il suo nuovo modello R1, ridefinendo silenziosamente l’economia dell’intelligenza artificiale. Ha raggiunto prestazioni di alto livello a solo 1/40 del costo dei modelli precedenti, poco dopo che il modello linguistico V3, rilasciato a dicembre, aveva ridotto i costi di addestramento di oltre il 90%.
Per prima cosa, DeepSeek ha dimostrato che chiedere ai modelli AI di spiegare il proprio ragionamento—un approccio noto come chain-of-thought prompting—migliora sia l’accuratezza che l’efficienza. In secondo luogo, DeepSeek ha utilizzato l’AI per generare autonomamente i propri dataset, senza impiegare esseri umani per etichettare i dati. Sebbene alcuni ritengano che i risultati di DeepSeek non siano stati ottenuti a costi così ridotti come dichiarato, queste innovazioni stanno comunque inaugurando una nuova era nell’economia dell’AI.
L’economia dell’AI sta cambiando—e lo sta facendo in fretta
L’impennata delle prestazioni per dollaro investito ha enormi implicazioni per le startup, l’adozione aziendale e gli investimenti in infrastrutture. Il cambiamento delle dinamiche di costo potrebbe sconvolgere le forze di mercato a favore delle startup più agili, che ora hanno l’opportunità di superare i colossi del settore e migliorare i propri margini di profitto.
I giganti della tecnologia, dal canto loro, hanno già investito collettivamente oltre 100 miliardi di dollari nello sviluppo infrastrutturale e devono ora trovare un modo per ottenere ritorni su questi enormi investimenti e mantenere un vantaggio algoritmico rispetto ai nuovi entranti più snelli. Considerando la rapidità dei cambiamenti, il messaggio è chiaro e univoco per tutti, dalle big tech alle startup: muovetevi in fretta per sfruttare i progressi, oppure rischiate di rimanere indietro.
L’AI prima e dopo DeepSeek
Prima di DeepSeek, il panorama era chiaro: le startup faticavano a competere con le big tech a causa degli ingenti costi infrastrutturali. I colossi dell’AI hanno speso decine di miliardi di dollari a trimestre in spese in conto capitale per costruire giganteschi data center, traendo un vantaggio sproporzionato dai progressi tecnologici. L’accesso a enormi quantità di dati, la concentrazione di ricercatori con dottorati e gli avanzamenti algoritmici hanno spinto questi giganti al vertice del settore. Inoltre, le loro reti di distribuzione consolidate hanno permesso loro di portare rapidamente le innovazioni ai clienti, alimentando ulteriormente il ciclo di miglioramento tecnologico.
Ma ora la fionda di Davide è diventata potente quanto l’esercito di dottorati di Golia. Nel solo 2025, i costi di addestramento sono crollati del 95%, riducendosi di un fattore 20 e diminuendo così il vantaggio infrastrutturale dei colossi. Negli ultimi tre anni, i costi di inferenza si sono ridotti di quasi mille volte, e possiamo aspettarci un’ulteriore riduzione tra cento e mille volte nel prossimo futuro. Il vantaggio algoritmico oggi dura circa 45-100 giorni e sembra destinato a ridursi ancora di più.
Con i costi di addestramento che non rappresentano più il vincolo principale, l’attenzione si sposta ora sui carichi di lavoro di inferenza—ovvero su quanto efficientemente i modelli AI funzionano nelle applicazioni in tempo reale. Stiamo entrando in una fase in cui modelli più piccoli e meno costosi possono offrire capacità comparabili ai loro predecessori più grandi. Inoltre, possono essere eseguiti su GPU meno potenti, prolungando la vita utile delle vecchie GPU, che possono essere riutilizzate. Se i prodotti AI più avanzati possono essere forniti a una frazione del costo, le startup hanno finalmente l’opportunità di superare i colossi del settore e migliorare la redditività.
Anche la gestione del personale favorisce i nuovi entranti: la necessità di assumere interi team di dottorati per sviluppare un prodotto AI competitivo si è ridotta drasticamente—se non addirittura azzerata. Ciò consente alle startup di sviluppare, perfezionare e distribuire modelli a una frazione dei costi di capitale umano sostenuti dai giganti del settore. Inoltre, operando prevalentemente a livello applicativo, le nuove aziende beneficiano di margini più elevati, come già accaduto con la rivoluzione del cloud computing quindici anni fa.
Nvidia e il rischio di un cambio di paradigma
Questi cambiamenti non rappresentano solo un’opportunità per le startup, ma anche una minaccia per aziende come Nvidia. Dopo l’annuncio di DeepSeek, il titolo Nvidia è crollato del 12%, sebbene si sia poi ripreso. I produttori di chip affrontano rischi crescenti, poiché la domanda si sta spostando dall’hardware dedicato all’addestramento a soluzioni di inferenza più efficienti. L’ascesa delle neural processing unit (NPU) di livello consumer potrebbe accelerare ulteriormente questo cambiamento, permettendo ai modelli AI di funzionare localmente su dispositivi come smartphone e laptop.
Spesa in AI: il paradosso degli investimenti
Ciò che è positivo per i nuovi entranti è negativo per i colossi dell’AI. Questi ultimi hanno rapidamente sottolineato le implicazioni geopolitiche del dominio di DeepSeek, cercando di ottenere supporto per le loro strategie di sviluppo, nonostante il fatto che anche istituzioni accademiche statunitensi, come Stanford, abbiano già replicato o superato gli standard di DeepSeek.
Guardando al futuro, le aziende che hanno investito centinaia di miliardi di dollari in infrastrutture AI potrebbero legittimamente chiedersi: Tutti questi investimenti sono stati uno spreco di denaro? Se un modello economico offre le stesse prestazioni di uno costoso, perché pagare di più?
Storicamente, i progressi dell’AI sono stati guidati dalla scala e dalla spesa eccessiva. L’architettura Transformer ha funzionato in modo brillante grazie a un sovra-addestramento, andando oltre quanto ritenuto idealmente necessario. Ora, nuovi modelli dimostrano che possiamo ottenere le stesse prestazioni con costi significativamente inferiori. Tuttavia, anche con l’efficienza di DeepSeek, i colossi dell’AI continueranno a sviluppare nuovi modelli sempre più avanzati, richiedendo data center ancora più grandi e costi di inferenza sempre più elevati.
Startup AI: la leva del modello open-source
Le big tech non stanno a guardare. È già in corso una corsa per replicare e superare i risultati di DeepSeek, con i modelli Gemini di Google, Azure AI Foundry di Microsoft e LLaMA di Meta in competizione per la supremazia. I modelli open-source giocheranno probabilmente un ruolo chiave: il CEO di Meta, Mark Zuckerberg, ha sottolineato l’importanza dell’AI personalizzata—modelli su misura per le esigenze, le culture e le preferenze degli utenti. Questa visione si allinea con il trend più ampio dello sviluppo AI: modelli più piccoli e specializzati che offrono prestazioni elevate senza bisogno di enormi infrastrutture cloud.
Nel frattempo, il conflitto tra i colossi open-source e quelli closed-source offre alle startup un’ulteriore leva. I modelli open-source, come quelli di Meta, continueranno a ridurre i costi complessivi dell’ecosistema, mentre i modelli closed-source cercheranno di estrarre un premio per una tecnologia migliore. Le startup potranno sfruttare queste dinamiche di mercato per ottenere le migliori prestazioni al miglior prezzo, migliorando i propri margini.
Il messaggio è chiaro: muoversi in fretta o rimanere indietro
I cicli di innovazione si stanno accorciando drasticamente. Se prima erano necessari anni o mesi per stabilire un nuovo standard di prestazioni, ora, grazie ai progressi di DeepSeek, bastano 41 giorni. L’innovazione sta accelerando a un ritmo vertiginoso, e il margine di errore si sta riducendo altrettanto rapidamente.
L’articolo completo è su Fortune.com
Tomasz Tunguz è fondatore della società VC Teoria Ventures. In precedenza è stato amministratore delegato di Redpoint e prima era un product manager di Google.