Qualche mese fa Google ha acquistato parte dei diritti di Character AI, una piattaforma di chatbot conversazionali che ha scatenato polemiche sin dalla sua prima pubblicizzazione.
Creata da Noam Shazeer e Daniel De Freitas, due ricercatori della compagnia con sede a Mountain View, Character AI consente a chiunque di creare dei chatbot personalizzati con specifiche personalità basate su personaggi immaginari o persone reali (vive o decedute).
Google si è mostrata fin da subito interessata alla creazione di Shazeer e Dei Freitas, non per le applicazioni pratiche della piattaforma, ma perché Character AI è in grado di operare su larga scala con costi molto ridotti.
"La curva di adozione di qualsiasi nuova tecnologia di solito inizia con il porno e le relazioni parasociali. Guardate l'elenco dei prodotti GenAI con la più alta MAU (Monthly Active Users, ndr): la maggior parte di essi riguarda la cura della solitudine" spiega Manas J. Saloi nel suo blog. "Fidanzate AI, compagni AI, terapisti AI. Ma gestire questi servizi è costoso. Molto costoso. I costi di inferenza possono uccidervi prima ancora di capire l'adeguatezza del prodotto al mercato".
Le operazioni di inferenza su certi volumi di operazioni sono molto costose, tanto da rendere insostenibili i modelli di IA in termini economici. Spesso questi prodotti sono talmente esosi che molte aziende falliscono prima di trovare un modello di business sostenibile, anche se i chatbot fanno successo tra gli utenti.
Nel caso di Character AI, la piattaforma riesce a supportare milioni di utenti senza perdite economiche e, secondo Saloi, è proprio questo il motivo per cui Google ha deciso di acquistare buona parte dei diritti della compagnia. L'obiettivo della big tech di Satella è rendere i propri modelli, compreso Gemini, competitivi non solo in termini di capacità, ma soprattutto di costo.
L'investimento di Google sta evidentemente dando i suoi frutti: oggi il colosso tech rende disponibili gratuitamente alcuni modelli di IA su AI Studio, una mossa insostenibile se non avesse trovato il modo di abbassare notevolmente i costi di inferenza.
"Il pre-training ha avuto un rendimento decrescente. Lo sanno tutti. È per questo che si sta assistendo a un cambiamento verso il prompting chain-of-thought e l'ottimizzazione del tempo di inferenza. Probabilmente è per questo che Anthropic sta lavorando per migliorare Sonnet invece di lanciare qualcosa di più grande. E OpenAI sta lanciando O3 e non GPT 5" conclude Saoi.