La Big data analytics è il processo di raccolta e analisi di grandi volumi di dati, il cui fine ultimo è estrapolare informazioni di business nascoste.
I big data hanno infatti il potenziale per esempio di dare alle imprese consigli sul loro stato di salute, sulle caratteristiche del mercato in cui operano, e sul comportamento di acquisto dei clienti; tali informazioni rendono l’attività decisionale più efficace e repentina rispetto a quella della concorrenza.
I principali obiettivi di un progetto di big data analytics in azienda sono:
La big data analytics è costituita da 3 tipologie di analisi interpretative:
1. L’analisi descrittiva
L’analisi descrittiva è formata da tutti i tool che consentono di rappresentare la realtà di determinate situazioni e processi. In azienda, essa è utile a rappresentare graficamente i processi aziendali. Mediante questa attività vengono analizzati gli eventi passati, e si cerca di capire come essi possano influenzare quelli futuri.
2. L’analisi predittiva
L’analisi predittiva consente di eseguire analisi di dati storici allo scopo di prevedere eventi e tendenze future. Grazie a questa operazione, i dati storici sono infatti impiegati per costruire un modello matematico in grado di rilevare la macro tendenza futura.
3. L’analisi prescrittiva
L’analisi prescrittiva dà indicazioni strategiche o soluzioni operative basate sia sull’analisi descrittiva, sia sull’analisi predittiva. Essa non dà solo indicazioni su ciò che accadrà, ma spiega anche il perché, fornendo così raccomandazioni in merito alle possibili azioni utili a tradurre in concreto queste previsioni.
L’analisi predittiva, tra le tre tipologie la più utilizzata nella strategia aziendale, permette dunque di effettuare previsioni basate sui dati. Questo processo utilizza quindi i dati insieme a tecniche di machine learning per creare un modello predittivo di eventi futuri.
Essa ha inizio con un obiettivo aziendale che in genere rientra in uno di questi gruppi:
1. Efficienza e rischi operativi
Molte big data analytics riguardano la riduzione del rischio delle analisi finanziarie. Altri ambiti di applicazione risultano essere l’asset management, la gestione del personale e la supply chain.
2. Sicurezza
Analisi predittiva e big data analytics servono inoltre a prevenire problemi nell’erogazione dei servizi e monitorare gli eventi per potervi rispondere in tempo reale.
3. Conoscenza dei clienti
Le soluzioni di big data analytics sono utilizzate per progetti di marketing e vendite, per conoscere le preferenze dei consumatori e anche per l’ottimizzazione della digital experience.
4. Ottimizzazione dei prezzi
Le aziende possono utilizzare la big data analytics per ottimizzare i prezzi applicati a prodotti o servizi, espandendo il proprio mercato e aumentando i ricavi.
Se vuoi un progetto di Big data analytics nella tua azienda, una domanda da porsi è sicuramente se il tuo data center è pronto per supportare l’ingente mole di dati e la potenza computazionale richiesta da questo tipo di progetti.
Mentre alcune organizzazioni hanno già la capacità di assorbire le soluzioni per i big data, altre dovranno infatti espandere le proprie risorse per accogliere questi nuovi strumenti.
Tra le componenti da tenere in massima considerazione segnaliamo lo storage, la potenza computazionale, i software di analisi e il networking.
Lo storage è la componente fondamentale per sostenere una soluzione di big data analytics. Molto spesso le aziende possiedono già storage sufficiente per supportare un’iniziativa di questo tipo (d’altronde i dati che verranno elaborati devono già esistere da qualche parte), tuttavia le agenzie potrebbero decidere di investire in soluzioni di archiviazione ottimizzate per i big data. In questo caso lo storage flash risulta il più interessante per i suoi vantaggi in termini di prestazioni e alta disponibilità, mentre lo storage cloud può rivelarsi un’opzione utile per il disaster recovery e il backup di soluzioni di Big Data on-site.
Tuttavia, sebbene il cloud sia disponibile come fonte primaria di archiviazione, molte organizzazioni, soprattutto di grandi dimensioni, trovano che la spesa per il costante trasporto di dati nei cloud renda questa opzione meno efficiente rispetto all’archiviazione locale.
I server destinati all’analisi dei big data devono disporre di una potenza computazionale sufficiente a supportare un’applicazione di questo tipo. Alcuni vendor offrono opzioni di elaborazione del cloud che risultano essere particolarmente allettanti per quelle aziende che fanno registrare veri e propri picchi stagionali. Mentre per chi ha scadenze trimestrali di archiviazione, questo tipo di soluzione permette di aumentare drasticamente la potenza di elaborazione nel cloud, in modo da elaborare facilmente l’ondata di dati che arriva nelle date previste.
I software per la big data analytics devono essere selezionati non solo sulle loro funzioni, ma anche tenendo in considerazione fattori quali la sicurezza dei dati e la facilità d’uso.
Le enormi quantità di informazioni che devono essere trasferite su una piattaforma di Big Data richiedono un hardware di rete ad alta capacità trasmissiva.
Molte organizzazioni operano già con un hardware di rete che facilita le connessioni da 10 gigabit e, pertanto, potrebbero dover apportare solo piccole modifiche per sostenere un progetto di big data analytics, come l’installazione di nuove porte.
Se sei interessato a capire meglio come rendere pronta la tua infrastruttura IT per questo tipo di progetti, ti consigliamo di scaricare il WP Pure Storage a questo link.