Cresce l'importanza di Hadoop nelle implementazioni big data.
Lo sostiene uno studio IDC commissionato da Red Hat dal titolo “Trends in enterprise Hadoop deployments” in base al quale il 32% degli intervistati ha indicato di avere implementazioni Hadoop in azienda, il 31% dichiara di volerlo adottare entro 12 mesi e il 36% commenta che la programmazione Hadoop potrebbe superare i 12 mesi.
Lo studio IDC ha analizza i diversi scenari di utilizzo di Hadoop.
Il modo d'uso più diffuso è per l'analisi di dati grezzi, mentre il 39% degli intervistati dichiara di utilizzarlo per l’analisi di set di dati secondari per modellare scenari di simulazione del tipo ‘if-then’ finalizzati all'innovazione dei servizi. Tra gli usi meno diffusi di Hadoop vi è la sua implementazione come piattaforma per carichi di lavoro non analitici (per esempio insieme a un SQL overlay per OLTP).
In particolare una delle indicazioni del rapporto IDC riporta che "I file system come GPFS di IBM, Red Hat Storage (GlusterFS), EMC Isilon OneFS e altri che si sono guadagnati una reputazione per le loro capacità di robustezza e scalabilità sono graditi come alternativa a HDFS. Di questi tre, solo Red Hat offre una piattaforma Linux open source integrata che combina un file system distribuito con un connettore Hadoop, middleware enterprise e la capacità di gestire workload Hadoop in maniera nativa".
Il sondaggio conferma anche che la maggior parte delle imprese elabora i big data prima e dopo il processing Hadoop, evidenziando la capacità di GlusterFS di tenere i dati in formato POSIX nativo e di utilizzare strumenti di analisi tradizionali.
Lo studio IDC è scaricabile previa registrazione al seguente LINK