Meta, la società di Mark Zuckerberg, ha avviato i test sui primi campioni del suo chip proprietario per l'addestramento di sistemi AI, un passo strategico che segna l'intenzione di distaccarsi dalla dipendenza dei processori di NVIDIA. Secondo quanto riportato da Reuters, questa fase di test rappresenta un momento cruciale per l'azienda che, nonostante alcune false partenze negli anni precedenti, sembra ora determinata a costruire un'infrastruttura tecnologica completamente autonoma. La mossa si inserisce in un contesto più ampio in cui i giganti tecnologici cercano soluzioni alternative alle forniture esterne.
La corsa all'indipendenza tecnologica
La notizia arriva da fonti interne a Meta, che hanno rivelato a Reuters come l'azienda stia attualmente testando piccoli lotti di chip prodotti internamente. Se questi test iniziali dovessero dare risultati positivi, la società madre di Facebook potrebbe rapidamente aumentare la produzione, implementando questi processori nei propri data center.
Nonostante Meta abbia recentemente presentato un sistema basato sull'architettura "Blackwell" GB200 di NVIDIA, la dirigenza sembra fermamente orientata verso lo sviluppo di soluzioni proprietarie. Questa tendenza non è isolata: numerosi attori di primo piano nel settore dell'intelligenza artificiale stanno cercando di ridurre la loro dipendenza da NVIDIA, che attualmente domina il mercato dei chip per AI.
Solo il mese scorso, diverse testate giornalistiche hanno riportato che anche OpenAI avrebbe finalizzato il design di un proprio chip, presumibilmente con la collaborazione di Broadcom e TSMC.
La collaborazione con TSMC e il percorso accidentato
Secondo una delle fonti consultate da Reuters, Meta avrebbe stretto una partnership con TSMC per la produzione dei lotti di test. La fonderia taiwanese, leader mondiale nella produzione di semiconduttori, sarebbe quindi responsabile della realizzazione fisica dei chip progettati da Meta.
Tom's Hardware ha ipotizzato che Meta e Broadcom stessero collaborando per il tape out del "primo acceleratore per l'addestramento AI" dell'azienda. Questo termine tecnico indica la fase finale del processo di design di un chip, quando il progetto viene inviato alla fonderia per la produzione.
Lo sviluppo della serie "Meta Training and Inference Accelerator" ha una storia complessa che si estende negli ultimi anni. Secondo Reuters, questo progetto articolato in più fasi "ha avuto un inizio traballante per anni, e in un momento ha persino abbandonato un chip in una fase di sviluppo simile".
Dal newsfeed all'addestramento AI
L'esperienza di Meta con i chip personalizzati non inizia oggi. "Meta lo scorso anno ha iniziato a utilizzare un chip MTIA per eseguire l'inferenza, ovvero il processo coinvolto nell'esecuzione di un sistema di AI durante l'interazione degli utenti, per i sistemi di raccomandazione che determinano quali contenuti appaiono nei feed di notizie di Facebook e Instagram", rivela il rapporto di Reuters.
Il passo successivo, più ambizioso, è quello di implementare soluzioni proprietarie anche per l'addestramento dei modelli AI, un processo molto più complesso e computazionalmente intensivo rispetto all'inferenza. La dirigenza dell'azienda punta a rendere operativi questi chip personalizzati per l'addestramento AI entro il prossimo anno.
Gli esempi precedenti di hardware MTIA erano basati su core RISC-V open-source (per compiti di inferenza), ma non è chiaro se questa architettura costituirà la base del più recente design di chip AI di Meta, orientato all'addestramento dei large language models.
La strategia di Meta riflette un cambiamento significativo nel settore tecnologico, dove il controllo dell'intera catena di produzione sta diventando un vantaggio competitivo cruciale nella corsa all'innovazione dell'intelligenza artificiale.
Ovvero non c'è spazio per gli altri finché la corsa all'ultimo modello più prestazionale è in vigore e non ci si può permettere di puntare sul cavallo sbagliato rischiando di rimanere indietro.
Soprattutto perché la progettazione non può essere una una-tantum. Se anche fai un bel processore per l'AI oggi, devi continuare a pomparlo anche per domani senza rivoluzionarlo, altrimenti chi si è appoggiato a Nvidia invece di sperare di farle la guerra otterrà le sue nuove GPU prima con la sicurezza che tutto il SW sviluppato fino a quel momento non è da buttare via.
Questo commento è stato nascosto automaticamente. Vuoi comunque leggerlo?