Il tema dei Big Data è oggi molto attuale, se ne parla sia a livello aziendale, sia a livello di PA, ma non sempre è chiaro a cosa servono i Big Data, come conservarli e come gestirli. Abbiamo fatto un po’ di chiarezza nel definire i Big Data, il loro uso, le potenzialità di un’analisi strutturata e l’evoluzione degli scenari di mercato all’aumentare dei volumi di Big Data.
Cosa sono i Big Data e a cosa servono?
I Big Data hanno 3 caratteristiche principali, definite le “3 v”:
- Volume: si fa riferimento alla grande quantità di dati disponibili;
- Velocità: si fa riferimento al tempo che si impiega per raccogliere, elaborare, archiviare ed analizzare i dati;
- Varietà: si fa riferimento alla tipologia di dati strutturati, non strutturati o semi strutturati.
Quando si lavora con i Big Data è opportuno conoscere gli aspetti essenziali della lavorazione per ottenere un vantaggio competitivo. Il tempo è fondamentale perché occorre realizzare le operazioni di analisi in tempi rapidi: per poterlo fare è rilevante la progettazione del database, proprio perché gli addetti ai lavori sanno che uno dei maggiori problemi è il tempo di accesso ai dati.
A livello di varietà occorre individuare la tipologia di dati con cui ci si appresta a lavorare: “dati strutturati” (dati che devono essere scritti rispettando uno schema preciso), “dati semi-strutturati” (non hanno uno schema preciso, ma ci sono comunque delle regole da rispettare nella loro costruzione), “dati non strutturati” (non ci sono regole per scrivere questi dati). Se generalmente i dati di un database provenienti da un’unica fonte sono perlopiù omogenei nella loro forma, questo non è quasi mai vero se i dati provengono da fonti diverse: video, immagini, suoni, testi, sono tutti esempi di dati, ma ognuno è scritto in maniera diversa ed analizzare dati non strutturati è più dispendioso rispetto a quelli strutturati.
Col tempo, tuttavia, sono state individuate altre 2 caratteristiche, altre “2 v”, che si aggiungono alle precedenti. Sono le V di:
- Veridicità
- Valore
La veridicità si riferisce alla qualità dei dati, è importante che siano di buona qualità, ossia che non siano rovinati, errati o compromessi. Dati di bassa qualità conducono a perdite economiche.
Il valore, invece, si riferisce alla capacità di trasformare i dati in informazioni di valore che possono essere utilizzate per precisi scopi.
Analisi dei Big Data, un esempio
Per capire meglio i tipi di analisi che possono essere fatte sui Big Data facciamo un esempio. In precedenza, in caso di pubblicità tradizionale mediante uno spot televisivo in onda in una data trasmissione, l’unico dato al quale si potesse risalire riguardo alla diffusione dello spot era relativo al numero di spettatori, ma non era chiaro quanti di questi appartenessero al target del prodotto. Oggi, con la pubblicità su internet, si riesce ad avere informazioni di dettaglio non solo sul numero degli utenti, ma anche di una loro profilazione di dettaglio.
Big Data, chi li usa e perché
Grandi aziende come Google, Amazon, Facebook e Netflix stanno costruendo la loro fortuna sull’analisi dei dati a disposizione. Basti pensare, ad esempio, che Netflix ha deciso di produrre la serie TV “House of Cards” sulla base delle informazioni presenti nel suo database, che raccoglieva le preferenze dei suoi clienti relativamente al noleggio di film.
Quanto possono crescere i volumi dei Big Data?
I volumi dei dati in possesso delle aziende sono destinati a crescere sempre di più, anche grazie all’arrivo dell’Internet of Things: dispositivi di qualsiasi tipo, come televisori, frigoriferi, impianti di riscaldamento e raffreddamento, sono collegati e controllati via internet, producendo così sempre più dati, sempre di maggior dettaglio.
Per il 2020, secondo Gartner, si prevedono oltre 25 miliardi di oggetti collegati ad internet. Si stima che nel 2020 il volume dei dati sarà di 35 zettabyte di dati (ovvero 35 mila miliardi di gigabyte).
Come l’analisi dei Big Data può essere utile all’azienda?
L’analisi dei Big Data a fini aziendali ricade nel processo di Business Intelligence ed è fondamentale per l’azienda se questa ha a disposizione una grande mole di dati. Si può affermare che più dati una azienda possiede, maggiore è il beneficio ricavabile dall’analisi. Analizzando i dati che ha a disposizione, l’azienda può diventare più competitiva: l’analisi dei Big Data consente di valutare i rischi e le potenzialità di un mercato, comprendere i bisogni dei clienti, ottimizzare le attività da svolgere così da ridurre i costi. A trarre beneficio dall’analisi dei Big Data non sarebbe soltanto il settore privato, ma anche quello pubblico, in particolare della pubblica amministrazione. In ambito PA un esempio immediatamente comprensibile relativo all’analisi dei Big Data è quello della Sanità, al cui sistema l’analisi dei Big Data gioverebbe in ottica di analisi, costi, prevenzione, etc.
Quante volte si possono analizzare gli stessi dati?
L’analisi di dati porta a scoprire relazioni e fare ipotesi che poi devono essere verificate mediante ulteriori analisi. Questo processo può essere ripetuto un certo numero di volte, in funzione anche delle dimensioni dei dati.
L’analisi dei big data prevede 2 fasi principali:
- Big Data Management: l’insieme dei processi e delle tecnologie per acquisire e memorizzare dati;
- Big Data Analytics: l’insieme dei processi utilizzati per analizzare e trasformare i dati in informazioni in tempi rapidi.
Come si rendono i dati comprensibili ai non addetti ai lavori?
In questo caso è importante la figura del Data Scientist che utilizzando tool di visualizzazione e machine learning algorithm, riesce ad interpretare i dati ed a ricavare da questi informazioni utili trasformandoli in visual o infografica. Il vecchio detto “Un’immagine vale più di mille parole” è particolarmente vero nell’analisi dei dati, grandi e piccoli!
Come immaginate l’evoluzione futura dell’analisi dei Big Data per le aziende?
In questo momento moltissime imprese sono interessate al tema dei Big Data: tutte hanno una grande quantità di dati, in continua crescita, che devono essere analizzati velocemente per ottenere un vantaggio competitivo o economico, fornire nuovi servizi, come nel caso della PA, per migliorare il sistema Paese. Siamo all’inizio di una nuova era in cui i nuovi trend tecnologici, tra cui Big Data, ma anche Cloud, IoT e la disponibilità di piattaforme open o a basso costo, consentono di accelerare progetti e cambiare profondamente la quotidianità. In questo ambito, come azienda, ci aspettiamo che i Big Data, e le fonti eterogenee responsabili della loro produzione, crescano esponenzialmente e quindi sarà sempre più complesso determinare i livelli di riservatezza dei dati, stabilire come accedervi in maniera sicura e decidere dove collocare le informazioni critiche. Il mondo dei Big Data sta aprendo nuovi scenari tecnologici in cui la cybersecurity, insita da sempre nel DNA di Consulthink, avrà un ruolo sempre più importante.
Redatto da Lucia D’Adamo, in collaborazione con Luigi Laura, supervisionato da Marco Pirrone