X

Nvidia: la nuova tecnologia ottica è promettente, ma necessita di tempi più lunghi rispetto alla fretta dei mercati. Il titolo scende

Imagoeconomica

Lo stadio di hockey a San Jose, in California ieri era strapieno come fosse si giocasse Hockey World Cup. Davanti a un pubblico composto da sviluppatori di software accordi da tutto il mondo, si è giocata invece una partita di chip, con il campione Usa, il ceo di Nvidia Jensen Huang, che ha cercato di rispondere, a distanza, agli attacchi dell’avversario cinese DeepSeek, seguito dal connazionale Alibaba. In palio ci sono miliardi di investimento nel settore tecnologico Usa, rappresentato dai Magnifici Sette.

L’attesa era alta dopo che i concorrenti cinesi hanno annunciato a gennaio di essere pronti con una tecnologia che necessita di molti meno investimenti. Ma Juang non è riuscito del tutto, con i suoi nuovi prodotti, a convincere il pubblico, sia quello degli sviluppatori, ma a Wall Street, nemmeno quello degli investitori: il titolo Nvidia ieri ha perso il 3,50%.

Durante il suo discorso programmatico alla conferenza annuale Huang ha detto ieri che la sua azienda utilizzerà la tecnologia ottica confezionata in due nuovi chip di rete installati negli switch sopra i suoi server, spiegando che questa tecnologia renderà i chip tre volte e mezzo più efficienti dal punto di vista energetico rispetto ai loro predecessori. Ma quella che Hang vede come una rivoluzione ha bisogno di tempi più lunghi rispetto alla fretta che hanno i mercati: i chip switch saranno disponibili tra la fine di quest’anno e il 2026, riporta Reuters. Huang dopo il suo discorso, ha detto a un gruppo di giornalisti che, sebbene Nvidia abbia valutato la possibilità di utilizzarlo più ampiamente nei suoi chip GPU di punta, al momento non ha in programma di farlo, perché le connessioni in rame tradizionali sono “di ordini di grandezza” più affidabili delle attuali connessioni ottiche co-confezionate. “Non ne vale la pena”, ha detto Huang a proposito dell’uso di connessioni ottiche direttamente tra GPU. “Continuiamo a giocare con questa equazione. Il rame è molto meglio“.

Imprenditori e investitori della Silicon Valley hanno riposto le loro speranze nella tecnologia ottica

Huang ha poi detto che si è concentrato sulla fornitura di una roadmap di prodotto affidabile che i clienti di Nvidia, come OpenAI e Oracle, potrebbero preparare. “Tra un paio d’anni, saranno stanziate diverse centinaia di miliardi di dollari di infrastrutture AI, e quindi hai il budget approvato. Hai l’energia approvata. Hai il terreno costruito”, ha detto Huang. “Cosa sei disposto a fare in questo momento?”

Gli imprenditori e gli investitori della Silicon Valley hanno riposto le loro speranze nella tecnologia ottica, che ritengono sarà fondamentale per la costruzione di computer sempre più grandi per i sistemi di intelligenza artificiale, che, ha affermato Huang ieri, saranno comunque necessari anche dopo i progressi di aziende come DeepSeek, perché i sistemi di intelligenza artificiale avranno bisogno di maggiore potenza di calcolo per elaborare le risposte.

Startup come Ayar Labs , Lightmatter e Celestial AI hanno raccolto centinaia di milioni di dollari in capitale di rischio, alcuni dei quali dalla stessa Nvidia, per provare a mettere connessioni ottiche co-confezionate direttamente sui chip AI. Lightmatter e Celestial AI stanno entrambe puntando alle offerte pubbliche. Le connessioni in rame sono economiche e veloci, ma possono trasportare dati solo per pochi metri al massimo. Sebbene ciò possa sembrare banale, ha avuto un impatto enorme sulla gamma di prodotti Nvidia negli ultimi cinque anni.

Presentata la nuova famiglia Rubin

L‘attuale prodotto di punta di Nvidia contiene 72 dei suoi chip in un singolo server, consumando 120 kilowatt di elettricità e generando un così evevato calore da richiedere un sistema di raffreddamento a liquido simile a quello di un motore di un’auto. Il server di punta svelato ieri per il lancio nel 2027 conterrà centinaia dei suoi chip Vera Rubin Ultra in un singolo rack e consumerà 600 kilowatt di potenza.
Inserire più del doppio del numero di chip nello stesso spazio in due anni richiederà enormi imprese di ingegneria da parte di Nvidia e dei suoi partner. Tali imprese sono guidate dal fatto che il lavoro di elaborazione AI richiede lo spostamento di molti dati avanti e indietro tra i chip e Nvidia sta cercando di mantenere quanti più chip possibile entro la portata relativamente breve delle connessioni in rame.

Mark Wade, Ceo di Ayar Labs, che ha ricevuto un venture support da Nvidia, ha detto che l’industria dei chip sta ancora cercando di capire come produrre ottiche co-confezionate a costi inferiori e con maggiore affidabilità. Mentre la transizione potrebbe non arrivare prima del 2028 o oltre, ha affermato Wade, l’industria dei chip non avrà altra scelta se non quella di abbandonare il rame se vuole continuare a costruire server sempre più grandi. “Basta guardare il consumo di energia che sale sempre di più sui rack con connessioni elettriche”, ha detto Wade a Reuters in un’intervista a margine della conferenza di Nvidia. “L’ottica è l’unica tecnologia che ti fa scendere da quel treno”.

Related Post