La Cina sta cercando di sviluppare un mercato interno di GPU per ridurre la dipendenza dalle sanzioni sulle GPU Nvidia, ma sta incontrando significative difficoltà legate alla compatibilità e ai costi.
Le restrizioni all'esportazione imposte dagli Stati Uniti hanno limitato l'accesso della Cina ai chip avanzati, temendo che la tecnologia di punta possa rafforzare le capacità militari del paese. Ciò ha spinto la Cina ad accelerare gli sforzi per sviluppare una propria tecnologia GPU, con startup cinesi che stanno già facendo progressi significativi nello sviluppo di hardware e software GPU.
Tuttavia, il passaggio dai chip Nvidia riconosciuti a livello globale alle alternative domestiche richiede un'ingegneria estesa, rallentando il progresso degli sviluppi di intelligenza artificiale. Nonostante i progressi della Cina in questo settore, le sfide poste da sistemi incompatibili e divari tecnologici rimangono significative.
Un think tank sostenuto dal governo di Pechino ha quindi suggerito ai data center cinesi di continuare a utilizzare i chip Nvidia a causa degli alti costi e della complessità legati al passaggio ad alternative domestiche.
Le GPU A100 e H100 di Nvidia, ampiamente utilizzate per l'addestramento di modelli di IA, sono state vietate per l'esportazione in Cina nell'agosto 2022, portando l'azienda a creare versioni modificate come A800 e H800. Ciononostante, anche questi chip sono stati banditi da Washington nell'ottobre 2023, lasciando la Cina con un accesso limitato all'hardware avanzato su cui faceva affidamento.
Nonostante lo sviluppo rapido delle startup cinesi di GPU, il think tank ha sottolineato che il trasferimento dei modelli di IA dall'hardware Nvidia a soluzioni domestiche rimane difficile a causa delle differenze in hardware e software. L'ingegneria estesa richiesta per una tale transizione comporterebbe costi significativi per i data center, rendendo i chip Nvidia più attraenti nonostante le limitazioni sulla disponibilità.
Al 2023, la capacità di calcolo della Cina, che include sia unità di elaborazione centrale (CPU) che GPU, è aumentata del 27% su base annua, raggiungendo 230 Eflops. La potenza di calcolo basata su GPU, essenziale per l'addestramento e l'inferenza dei modelli di IA, è cresciuta ancora più rapidamente, con un aumento del 70% nello stesso periodo.
Inoltre, il panorama hardware dell'IA cinese si è notevolmente ampliato, con oltre 250 Internet data center (IDC) completati o in costruzione entro la metà del 2023. Questi centri fanno parte di una spinta più ampia verso una "nuova infrastruttura", sostenuta da governi locali, operatori di telecomunicazioni statali e investitori privati.
Questa rapida espansione ha anche portato a preoccupazioni riguardo l'eccesso di capacità e il sottoutilizzo. Secondo un rapporto della China Academy of Information and Communications Technology (CAICT): "La tendenza alla frammentazione della potenza di calcolo è sempre più grave, con tassi medi di utilizzo delle GPU inferiori al 40%... Ci sono grandi discrepanze nell'hardware negli IDC, come nelle GPU, negli acceleratori IA e nelle strutture di rete, che hanno reso più difficile gestire e distribuire le risorse hardware per soddisfare le esigenze di calcolo differenziali dei compiti di IA, ostacolando ulteriormente il tasso di utilizzo".