Artificial IntelligenceTech

Big Data Analytics in the Cloud Era (or not?)

Due iniziative IT sono al momento in cima alle priorità delle aziende di tutto il mondo: big data analytics e cloud computing. La prima offre la promessa di provvedere insights ad alto valore aggiunto in grado di creare notevole vantaggi competitivi, rivelare strategie innovative e aumentare i fatturati. Come modello di fornitura di servizi IT il cloud computing d’altro canto fornisce l’opportunità di potenziare la business agility e la produttività, ma allo stesso tempo di massimizzare l’efficienza e soprattutto ridurre i costi. Entrambe le tecnologie sono in continuo miglioramento. Grazie alle nuove evoluzioni del big data analytics ora le aziende possono trascendere i problemi iniziali di dove e come mettere le grandi quantità di dati e concentrarsi piuttosto su come effettuare analisi significative e rispondenti a reali business needs. Il cloud computing continua a maturare: un crescente numero di imprese stanno costruendo ambienti cloud agili ed efficienti mentre i cloud providers continuano ad ampliare la gamma di servizi offerti.

A questo punto sembrerebbe scontato che le aziende IT dovranno far convergere queste due tecnologie: utilizzare cioè il cloud computing come infrastruttura a supporto dei loro progetti big data. Come spesso accade nel mondo IT la risposta non è così ovvia.

La natura dell’infrastruttura richiesta per trarre il meglio da big data è un tema controverso. Ad esempio Matt Wood, data science chief di AWS (Amazon Web Services) avverte che, siccome la big data analysis sta diventando un centro nevralgico per le decisioni di molte aziende, bisogna fare attenzione che l’infrastruttura sia al passo con la mole di analisi che si effettuano su di essa, altrimenti il danno di business sarebbe enorme. Wood sostiene che la chiave per il successo nel mondo moderno dei big data non è una questione di scegliere una via piuttosto che un’altra (cloud services vs. in-house solutions), ma usare un approccio ibrido e scegliere caso per caso la soluzione più adatta allo scopo.L’approccio ibrido secondo Wood si deve applicare anche ai tool e alle soluzioni software di supporto ai big data analytics.

Un altro punto di vista che ricorda quello sopra citato ce lo spiega Doug Cutting, il creatore di Apache Hadoop un altro big player per le soluzioni di big data in-house. Hadoop, sostiene Cutting, ha conquistato molte aziende come strategia per estendere il data warehouse e facilitare analisi di dati provenienti da bacini di diverse applicazioni ad un costo drammaticamente conveniente rispetto alle soluzioni classiche. Tuttavia i clienti di oggi sono diventati più sofisticati: nuove sorgenti di dati, innumerevoli nuovi tools e spesso anche soluzioni cloud si sono aggiunte alla già affollata situazione:

In definitiva la strada da seguire per essere veramente efficienti se si vogliono tenere in ordine le analisi dei dati in un’azienda moderna è tenersi al passo con la crescita degli stessi. Ad esempio il Human Genome Project è cominciato come un progetto con dati dell’ordine di gygabytes, ma rapidamente è approdato all’ordine di terabyte e infine petabyte. Quando la scala del progetto si innalza di un gradino a volte le aziende possono essere prese totalmente impreparate. Allo stesso modo è importante stare al passo con la mole di analisi che si effettuano sulle grandi quantità di dati. Un esempio è Weather Channel. L’azienda inizialmente effettuava analisi comparative su ca. 2 milioni di locazioni geografiche con aggiornamenti ogni quattro ore e per loro la soluzione di data analysis in-house andava bene. Ora che gli aggiornamenti si succedono ad una frequenza dell’ordine del secondo hanno scelto AWS Redshift per lo streaming dei dati almost-real-time.

Leggi di più sulle grandi promesse non mantenute dai Big Data.

Articoli correlati

Close
Close