In occasione dell'annuale Red Hat Summit svoltosi a inizio maggio, la compagnia ha ribadito l'importanza del suo ecosistema di partner per promuovere casi d'uso, applicazioni e servizi di intelligenza artificiale.
I clienti dell'azienda possono contrare su piattaforme quali Red Hat Enterprise Linux, Red Hat OpenShift, Red Hat Ansible Automation Platform e ora Red Had OpenShift AI per eseguire applicazioni critiche e implementare soluzioni IA trasformative, oltre a sfruttare le competenze, le conoscenze e i carichi di lavoro certificati dei principali fornitori indipendenti di software e global system integrator.
Red Hat ha rivelato che i provider di applicazioni stanno collaborando con la compagnia per fornire soluzioni compatibili e supportate su OpenShift AI per un'integrazione semplificata e prestazioni migliorate durante il ciclo di vita dell'intelligenza artificiale e dell'apprendimento automatico.
Da adesso le applicazioni dei partner AI/ML certificati possono essere integrate nativamente su OpenShift e fornire funzionalità complementari o estese su OpenShift AI; inoltre, le applicazioni dei partner pre-integrate sono disponibili nella dashboard utente di OpenShift AI per aiutare i clienti ad accedere più facilmente alle soluzioni di accelerazione hardware e software.
Infine, i global system integrator offriranno servizi gestiti e supporto per gestire carichi di lavoro di IA generativa in ambienti cloud ibridi.
Le nuove collaborazioni di Red Hat
Per potenziare ulteriormente il proprio ecosistema, Red Hat ha annunciato diverse nuove collaborazioni; tra queste c'è quella con AMD volta ad ampliare le possibilità di scelta dei clienti nella creazione, distribuzione e gestione dei carichi di lavoro AI. Il GPU Operator di AMD sarà disponibile e supportato su OpenShift AI per accelerare carichi di lavoro IA nel cloud ibrido.
Red Hat ha inoltre avviato l'integrazione dei microservizi NVIDIA NIM su OpenShift AI per ottimizzare l’inferenza di decine di modelli di intelligenza artificiale tramite il supporto di una piattaforma cloud ibrida AI/ML coerente e open source. L’integrazione di NVIDIA NIM consentirà alle organizzazioni di utilizzare Red Ha OpenShift AI per accelerare l’erogazione di applicazioni di IA generativa e velocizzare il time to value.
Red Hat ha annunciato anche una collaborazione con Intel per aiutare le aziende ad accelerare l'innovazione AI/ML su una piattaforma integrata. Le due compagnie faciliteranno la fornitura di soluzioni di intelligenza artificiale end-to-end sui prodotti Intel per l'IA tra cui gli acceleratori Intel Gaudi AI, i processori Intel Xeon, i processori Intel Core Ultra e Core e le GPU Intel Arc per lo sviluppo e l'addestramento di modelli, la gestione e il monitoraggio senza soluzione di continuità attraverso un'infrastruttura cloud ibrida.
Red Hat sta lavorando per portare le capacità di allocazione delle risorse di Run:ai in OpenShift AI e aiutare le imprese a semplificare le operazioni di IA, ottimizzando l’infrastruttura sottostante. Con questa collaborazione, Red Hat e Run:ai consentono alle aziende di ottenere il massimo dai carichi di lavoro IA su una piattaforma MLOps affidabile per la creazione, il tuning, la distribuzione e il monitoraggio di applicazioni e modelli abilitati all'IA su scala.
Red Hat ha stretto un'importante collaborazione anche con Stability AI per integrare modelli GenAI aperti all'interno di OpenShift AI. Grazie a questa partnership, i clienti di OpenShift AI potranno accedere più facilmente a modelli linguistici di grandi dimensioni open source all'avanguardia ed esplorare una varietà di casi d'uso IA quali immagini, video, audio, 3D, codice e linguaggio.
Infine, Red Hat collaborerà con Elastic per offrire ai propri clienti esperienze avanzate che supportino modelli di retrieval augmented generation (RAG) utilizzando Elasticsearch come soluzione di database vettoriale preferita integrata su OpenShift AI; in questo modo, Red Hat ed Elastic forniscono alle aziende gli strumenti necessari per fornire, mantenere e perfezionare nel tempo soluzioni RAG su un'unica piattaforma coerente.