IBM Cognitive Systems porta l'AI nel data center aziendale

Una nuova divisione e una focalizzazione verso l'intelligenza artificiale per portare tutta la potenza di Watson sui System z

Avatar di Riccardo Florio

a cura di Riccardo Florio

Si amplia l'offerta di IBM con nuove tecnologie e soluzioni a supporto del processo di Digital Transformation sia sul versante server sia storage. Elementi centrali dei nuovi annunci sono l'aspetto infrastrutturale e il tema dell'intelligenza artificiale.

"IBM sta ripensando l'infrastruttura - osserva Marco Utili,  Director Systems di IBM Italia - per renderla elemento abilitante di un processo di trasformazione che vede il passaggio dalla focalizzazione sull'aspetto transazionale dei dati (system of record) a quello che si basa sull'analisi e l'estrazione di valore da dati di ogni tipo (insight system). L'infrastruttura a supporto di questo passaggio è di tipo ibrido e coniuga cloud privato, machine learning, risorse on-premise e cloud pubblico. Questo approccio IBM intende portarlo all'interno di tutti i componenti dell'infrastruttura".

A supporto di questa visione strategica IBM ha creato una nuova divisione denominata Cognitive Systems per portare le tecnologie di machine learning e di intelligenza artificiale a ogni azienda (non solo a quelle di grandi dimensioni) che voglia intraprendere questo percorso.

Marco Utili  2017
Marco Utili,  Director Systems di IBM Italia

Tra le prime soluzioni veicolate dalla nuova divisione vi è Power AI (Artificial Intelligence) un framework pacchettizzato per le aziende che combina l'hardware dei processori Power ottimizzato per sfruttare i sistemi di accelerazione hardware di Nvidia (NVLink), con tecnologie software di autoapprendimento (Deep Learning).

Un'altra importante proposta di IBM Cognitive Systems è la disponibilità del machine learning all'interno del mainframe IBM (ovvero dei server della famiglia System z) con la possibilità per i clienti IBM di integrare all'interno del loro data center tramite private cloud alcune componenti tecnologiche derivate da Watson, finora accessibili unicamente tramite cloud pubblico.

"Il processo tradizionale di apprendimento si basa su un'analisi dei dati in cui la maggior parte dell'attività viene svolta manualmente dai Data Analyst - ha spiegato Andrea Negro, server solutions sales manager di IBM Italia -. Il machine learning che viene inserito all'interno di System z tramite IBM Machine Learning for z/OS automatizza il processo di interazione tra l'analista e il sistema, delegando al sistema molti aspetti di gestione. Questo approccio consente di accelerare molto il processo sollevando il Data Analyst da molto del lavoro che dovrebbe svolgere".

Andrea Negro
Andrea Negro, server solutions sales manager di IBM Italia

IBM evidenzia innumerevoli mercati in cui il machine learning creerà nuove opportunità. In ambito retail, per esempio, potrà essere utilizzato per la previsione delle vendite basandosi sui trend di mercato attuali, mentre nel settore finanziario sfruttato dagli advisor finanziari o dai broker per fornire suggerimenti basati su trend e movimenti di mercato aggiornati in tempo reale.

All'interno del settore "healthcare", il machine learning apre la strada a offerte di assistenza medica personalizzate, realizzate utilizzando dispositivi connessi tramite Internet of Things  per raccogliere dati sui comportamenti e le interazioni delle persone e delle macchine.

Storage sempre più flessibile, performante e versatile

IBM evidenzia come, anche nello storage, l'infrastruttura assuma un'importanza fondamentale a supporto dell'intelligenza artificiale. L'esigenza di analisi delle informazioni in tempo reale rende, infatti, essenziale poter differenziare la componente infrastrutturale di memorizzazione per scegliere quella più adatta alla differente natura dei dati, conseguendo maggiori prestazioni e riducendo i costi.

"Dopo avere attraversato il primo decennio del 2000 all'insegna dei processi di consolidamento, ci si torna ora a concentrare sul tema delle distribuzione del dati - sottolinea Francesco Casa manager storage solutions di IBM Italia -, in base al presupposto che i dati devono poter essere memorizzati in modo differenziato in base al loro valore e alla loro natura".

Francesco Casa 3 JPG
Francesco Casa, Manager Storage Solutions di IBM Italia

La flessibilità di scelta resta l'elemento centrale nella strategia storage di IBM che, attraverso l'offerta Spectrum, già da tempo consente all'utente finale di scegliere la modalità di memorizzazione preferita.

"L'offerta Spectrum - ha continuato Casa - è disponibile come soluzione interamente software adatta a ogni tipo di hardware, come appliance, in modalità cloud come servizio erogato sull'infrastruttura IBM SoftLayer e anche come servizio cloud nativo sull'infrastruttura cloud di terze parti".

Nel 2016 la gamma Spectrum si è ampliata con l'introduzione di due nuove tasselli. Il primo è Spectrum CDM, un cruscotto per visualizzare e gestire funzioni di Copy Data Management in-place. La seconda novità riguarda l'offerta object storage, che IBM ha portato anche sul cloud con IBM Cloud Object Storage.

Per il 2017 alcune delle soluzioni Spectrum saranno rese disponibili in modi sempre più versatili. In particolare, IBM Spectrum Virtualize e IBM Spectrum Scale potranno "girare" anche su Container o Virtual Machine non IBM, mentre IBM Spectrum Archive sarà disponibile anche come servizio cloud.

Sul versante hardware viene aggiornata l'intera offerta IBM Storwize con modelli nativamente All Flash contraddistinti dalla sigla F (V5030F e V7000F) e dal 10 gennaio anche i sistemi storage di fascia enterprise della serie DS8000 sono disponibili come sistemi nativamente All Flash (DS8884F, DS8886F, DS8888F).

Leggi altri articoli