L'intelligenza artificiale ha conquistato il business diventando il pilastro dell'innovazione moderna: ricercatori e investitori di tutto il mondo guardano con attenzione a questa tecnologia come mezzo preferito per guidare il progresso e aprire a nuove opportunità di guadagno.
Secondo Janakiram MSV, analista e fondatore di Get Cloud Ready Consulting, questa corsa all'IA sta gettando ombra su altre tecnologie che sono invece fondamentali per i diversi settori, in molti casi impedendo alle imprese di trarne il massimo potenziale.
Machine Learning e deep learning
Il machine learning e il deep learning sono di fatto le fondamenta dell'intelligenza artificiale, ma in molti casi vengono lasciati da parte in favore delle capacità dell'intelligenza artificiale generativa.
Janakiram MSV spiega che, nonostante le enormi opportunità della gen AI, essa non può rimpiazzare del tutto i modelli tradizionali basati sul machine learning (ML) e il deep learning (DL). L'IA generativa si basa sui principi e le tecniche sviluppate con queste due tecnologie ed è focalizzata sulla generazione di contenuti, mentre i modelli di ML e DL sono cruciali anche per attività di pattern recognition, classificazione e analisi predittiva.
Bisogna considerare inoltre che i modelli di IA generativa, soprattutto i più avanzati, richiedono risorse computazionali elevate che molte organizzazioni non hanno a disposizione; al contrario, i modelli di ML e DL, almeno quelli più tradizionali, sono più efficienti in termini di utilizzo di risorse e possono essere addestrati su dataset più piccoli, specifici per il task.
L'IA generativa quindi va vista come un complemento ai modelli esistenti di machine learning e deep learning, e non come un sostituto.
Edge computing
L'intelligenza artificiale generativa sta spostando l'attenzione delle imprese dall'edge computing all'esecuzione di modelli di IA sul cloud. Gli investimenti sulle iniziative di edge computing stanno diminuendo e di conseguenza sta rallentando anche lo sviluppo delle tecnologie edge, fondamentali per applicazioni in real-time di IoT, nei veicoli autonomi e per le smart city.
Integrare l'IA generativa nel mondo dell'edge computing è problematico a causa dei limiti intrinseci di risorse: i modelli di IA, come sappiamo, richiedono notevole memoria, energia e soprattutto potenza di calcolo che al momento mancano nei dispositivi edge.
Questi device sono progettati per essere a basso consumo e con capacità di elaborazione limitate proprio perché devono garantire efficienza in ambienti remoti e distribuiti; per questo continuano a utilizzare modelli di ML classici, generalmente più leggeri e ottimizzati per funzionare con risorse limitate.
In futuro l'evoluzione dell'edge computing potrebbe aprirsi all'esecuzione di modelli di IA più avanzati, ma al momento il machine learning classico la fa da padrone per quanto riguarda l'esecuzione di carichi di lavoro all'edge.
Il rischio però, ancora una volta, è che l'entusiasmo per l'IA oscuri la ricerca nel campo dell'edge computing e rallenti lo sviluppo di nuovi dispositivi efficienti, impattando su diversi settori.
Natural Language Processing
Il Natural Language Processing (NLP), cioè l'elaborazione del linguaggio naturale, è alla base dei modelli di intelligenza artificiale generativa, ma soltanto per quanto riguarda i task di generazione. Oggi gli investimenti si concentrano quasi esclusivamente sulle capacità generative degli NLP, a scapito di compiti non generativi come la sentiment analysis, la classificazione e la traduzione, aspetti essenziali per la comprensione del linguaggio umano.
Eseguire modelli NLP specifici invece di affidarsi a grandi LLM è vantaggioso in termini economici e di efficienza di risorse: questi modelli, essendo specializzati per un task, sono più piccoli, garantiscono maggiore precisione e un minore overhead computazionale. Essi sono perfetti per applicazioni che richiedono risposte in real-time grazie ai tempi di elaborazione più rapidi e requisiti di risorse minori.
Affidarsi esclusivamente ai modelli di fondazione, per quanto siano versatili, significa dover disporre di elevate risorse computazionali anche quando un modello più piccolo, specifico per un'attività, può ottenere prestazioni migliori con solo una frazione di risorse richieste dagli LLM.
Computer Vision
Anche la branca della Computer Vision (visione artificiale), fondamentale per consentire alle macchine di visualizzare, interpretare e comprendere il mondo, deve vedersela con i modelli generativi. Secondo Janakiram MSV i modelli generativi, in grado di creare immagini e video, stanno oscurando i progressi nel campo della computer vision.
Anche in questo caso, però, i grandi modelli generativi si rivelano "eccessivi" per task di interpretazione visiva che le tecnologie di computer vision possono trattare senza richiedere troppe risorse computazionali.
Per applicazioni che richiedono compiti di elaborazione visiva mirati, come il riconoscimento dei volti, le reti neurali convoluzionali addestrate su misura offrono una soluzione più snella ed efficiente rispetto ai grandi modelli generativi. Queste reti neurali possono essere ottimizzate senza sforzo per riconoscere i tratti del volto, consumando risorse computazionali molto minori rispetto ai modelli generativi.
La computer vision è ancora essenziale in scenari in cui è necessario un riconoscimento facciale rapido e affidabile, come nei sistemi di sicurezza o nei processi di verifica dell'identità.
ETL e Data Warheousing
L'IA generativa sta mettendo in difficoltà anche le tecnologie di data warehousing ed ETL (Extract, Transform, Load): le capacità dell'IA generativa di sintetizzare e analizzare i dati stanno lentamente convincendo molti che gli strumenti di ETL non siano poi così importanti. Con un numero sempre maggiore di aziende che investe nell'IA per generare in automatico insight dai dati grezzi, l'importanza del ruolo della preparazione e dell'analisi manuale dei dati potrebbe venire meno.
I processi di ETL tradizionali sono però ancora fondamentali per la gestione dati: l'ETL tradizionale è centrale nella preparazione dei dati provenienti da fonti diverse in un formato coerente e standardizzato, ed è in grado di renderli accessibili e utilizzabili da varie applicazioni.
I modelli RAG (Retrieval-Augmented Generation) di IA si basano su grandi database per migliorare la generazione di contenuti e il recupero di informazioni pertinenti, e le loro capacità dipendono strettamente da dati ben organizzati e di alta qualità.
Garantendo che i dati siano estratti, puliti e caricati con precisione nei database, i processi ETL tradizionali integrano le capacità dei modelli RAG fornendo una solida base di dati di qualità che ne migliora le prestazioni e l'utilità. L'ETL è fondamentale per garantire la gestione di dati guidata dall'IA, garantendo che i processi generativi si basino su fonti di dati affidabili e ben strutturate.
Se è vero che l'intelligenza artificiale ha il potenziale di rivoluzionare molte attività e sostituire processi obsoleti, bisogna comunque riconoscere il valore delle tecnologie che sono alla base delle attività di business ed essere consapevoli che non sempre l'IA può sostituirle completamente, soprattutto in scenari dove si richiedono efficienza e precisione con risorse limitate.