Meta testa i primi chip AI proprietari per staccarsi da NVIDIA

Meta, la società di Mark Zuckerberg, ha avviato i test sui primi campioni del suo chip proprietario per l'addestramento di sistemi AI.

Avatar di Andrea Maiellano

a cura di Andrea Maiellano

Author

2

Meta, la società di Mark Zuckerberg, ha avviato i test sui primi campioni del suo chip proprietario per l'addestramento di sistemi AI, un passo strategico che segna l'intenzione di distaccarsi dalla dipendenza dei processori di NVIDIA. Secondo quanto riportato da Reuters, questa fase di test rappresenta un momento cruciale per l'azienda che, nonostante alcune false partenze negli anni precedenti, sembra ora determinata a costruire un'infrastruttura tecnologica completamente autonoma. La mossa si inserisce in un contesto più ampio in cui i giganti tecnologici cercano soluzioni alternative alle forniture esterne.

La corsa all'indipendenza tecnologica

La notizia arriva da fonti interne a Meta, che hanno rivelato a Reuters come l'azienda stia attualmente testando piccoli lotti di chip prodotti internamente. Se questi test iniziali dovessero dare risultati positivi, la società madre di Facebook potrebbe rapidamente aumentare la produzione, implementando questi processori nei propri data center.

La corsa all'autonomia tecnologica rappresenta la nuova frontiera della competizione nel settore AI.

Nonostante Meta abbia recentemente presentato un sistema basato sull'architettura "Blackwell" GB200 di NVIDIA, la dirigenza sembra fermamente orientata verso lo sviluppo di soluzioni proprietarie. Questa tendenza non è isolata: numerosi attori di primo piano nel settore dell'intelligenza artificiale stanno cercando di ridurre la loro dipendenza da NVIDIA, che attualmente domina il mercato dei chip per AI.

Solo il mese scorso, diverse testate giornalistiche hanno riportato che anche OpenAI avrebbe finalizzato il design di un proprio chip, presumibilmente con la collaborazione di Broadcom e TSMC.

La collaborazione con TSMC e il percorso accidentato

Secondo una delle fonti consultate da Reuters, Meta avrebbe stretto una partnership con TSMC per la produzione dei lotti di test. La fonderia taiwanese, leader mondiale nella produzione di semiconduttori, sarebbe quindi responsabile della realizzazione fisica dei chip progettati da Meta.

Tom's Hardware ha ipotizzato che Meta e Broadcom stessero collaborando per il tape out del "primo acceleratore per l'addestramento AI" dell'azienda. Questo termine tecnico indica la fase finale del processo di design di un chip, quando il progetto viene inviato alla fonderia per la produzione.

Lo sviluppo della serie "Meta Training and Inference Accelerator" ha una storia complessa che si estende negli ultimi anni. Secondo Reuters, questo progetto articolato in più fasi "ha avuto un inizio traballante per anni, e in un momento ha persino abbandonato un chip in una fase di sviluppo simile".

Dal newsfeed all'addestramento AI

L'esperienza di Meta con i chip personalizzati non inizia oggi. "Meta lo scorso anno ha iniziato a utilizzare un chip MTIA per eseguire l'inferenza, ovvero il processo coinvolto nell'esecuzione di un sistema di AI durante l'interazione degli utenti, per i sistemi di raccomandazione che determinano quali contenuti appaiono nei feed di notizie di Facebook e Instagram", rivela il rapporto di Reuters.

Il passo successivo, più ambizioso, è quello di implementare soluzioni proprietarie anche per l'addestramento dei modelli AI, un processo molto più complesso e computazionalmente intensivo rispetto all'inferenza. La dirigenza dell'azienda punta a rendere operativi questi chip personalizzati per l'addestramento AI entro il prossimo anno.

Gli esempi precedenti di hardware MTIA erano basati su core RISC-V open-source (per compiti di inferenza), ma non è chiaro se questa architettura costituirà la base del più recente design di chip AI di Meta, orientato all'addestramento dei large language models.

La strategia di Meta riflette un cambiamento significativo nel settore tecnologico, dove il controllo dell'intera catena di produzione sta diventando un vantaggio competitivo cruciale nella corsa all'innovazione dell'intelligenza artificiale.

👋 Partecipa alla discussione! Scopri le ultime novità che abbiamo riservato per te!

2 Commenti

⚠️ Stai commentando come Ospite. Vuoi accedere?


Ennesimo tentativo di fare meglio di un azienda che progetta GPU per il calcolo parallelo da quasi 20 anni usando il massimo della tecnologia. Catena di supporto SW inclusa.
Ovvero non c'è spazio per gli altri finché la corsa all'ultimo modello più prestazionale è in vigore e non ci si può permettere di puntare sul cavallo sbagliato rischiando di rimanere indietro.
Soprattutto perché la progettazione non può essere una una-tantum. Se anche fai un bel processore per l'AI oggi, devi continuare a pomparlo anche per domani senza rivoluzionarlo, altrimenti chi si è appoggiato a Nvidia invece di sperare di farle la guerra otterrà le sue nuove GPU prima con la sicurezza che tutto il SW sviluppato fino a quel momento non è da buttare via.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Ennesimo tentativo di fare meglio di un azienda che progetta GPU per il calcolo parallelo da quasi 20 anni usando il massimo della tecnologia. Catena di supporto SW inclusa. Ovvero non c'è spazio per gli altri finché la corsa all'ultimo modello più prestazionale è in vigore e non ci si può permettere di puntare sul cavallo sbagliato rischiando di rimanere indietro. Soprattutto perché la progettazione non può essere una una-tantum. Se anche fai un bel processore per l'AI oggi, devi continuare a pomparlo anche per domani senza rivoluzionarlo, altrimenti chi si è appoggiato a Nvidia invece di sperare di farle la guerra otterrà le sue nuove GPU prima con la sicurezza che tutto il SW sviluppato fino a quel momento non è da buttare via.
L'idea non e' totalmente "sgangherata".
NVidia progetta GPU, Graphics Process Units, usate specificicatamente per la grafica 3D, ora estense per fare anche Machine Learning.
Ma non e' la stessa cosa del progettare acceleratori specifici per gli LLM.
Cosi' come non e' la stessa cosa del progettare acceleratori per il calcolo scientifico.
Per fare un esempio banale:
per la grafica di servono i float a 32 bit (quelli a 64 non sono molto utili),
per il calcolo scientifico di servono i float a 64bit o anche a 128bit,
per gli LLM di bastano i float a 16 bit o anche a 8bit (o a 4!!!)
Va da se che avere un acceleratre con il supporto al float 32/64/128 SE ti basta il float 16/8 e' uno spreco di risorse
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

L'idea non e' totalmente "sgangherata". NVidia progetta GPU, Graphics Process Units, usate specificicatamente per la grafica 3D, ora estense per fare anche Machine Learning. Ma non e' la stessa cosa del progettare acceleratori specifici per gli LLM. Cosi' come non e' la stessa cosa del progettare acceleratori per il calcolo scientifico. Per fare un esempio banale: per la grafica di servono i float a 32 bit (quelli a 64 non sono molto utili), per il calcolo scientifico di servono i float a 64bit o anche a 128bit, per gli LLM di bastano i float a 16 bit o anche a 8bit (o a 4!!!) Va da se che avere un acceleratre con il supporto al float 32/64/128 SE ti basta il float 16/8 e' uno spreco di risorse
Quello che dici è vero, ma per fare un acceleratore AI non basta mettere mille moltiplicatori matriciali BF16 insieme. Servono altre risorse, come controlli di memoria avanzati che supportano le ultime frequenze (e magari anche oltre se non si vuole riprogettare tutto appena esce la versione delle HBM più veloce), scheduler interni che sappiano bilanciare i carichi, quindi bus diversi al alte prestazioni, capacità di comunicazione altissime e senza colli di bottiglia se si vuole scalare a dimensioni di data center e per finire il SW. E trovare chi di fa il silicio e ti dà i componenti. Non è che gli slot a 3 o 4nmm tanto meno lo spazio per il packaging avanzato e la produzione di HBM sia così abbondante. E silicio in mano, tutto quanto non va se non c'è qualcosa che compila il codice per il nuovo acceleratore e deve anche farlo al meglio con ottimizzazioni spaventose se si vuole raggiungere la concorrenza che sono 2 decenni che progetta e programma sistemi dotati di migliaia di unità parallele e concorrenti.
Che si possa fare nessuno lo mette in dubbio. Che lo si possa fare però battendo la concorrenza nel bel mezzo di una gara senza fine, non lo credo proprio.
Se toppi rimani indietro, se non vuoi toppare devi mettere in conto il costo dell'R&D casalingo, che non è cosa breve perché di sicuro non uscirà un capolavoro al primo tentativo e deve essere continuamente a livello di quello che stai andando a battere se non vuoi una vittoria di Pirro, ma anche il costo di continuare a usare il meglio che c'è sul mercato come fanno i tuoi concorrenti.
Vero che Meta è nota per bruciare soldi come non ci fosse un domani, ma anche loro hanno dei limiti a cui prima o poi giungeranno.
Mostra altro Mostra meno

Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?

Questa funzionalità è attualmente in beta, se trovi qualche errore segnalacelo.