Che cosa sono Big Data e relativi Analytics e perché non si possono ignorare

La quantità di dati prodotta e gestita nel mondo (i cosiddetti Big data) ci ha fatto entrare nell’era degli zettabyte. Vediamo che cosa significa, quale valore si nasconde in questo “mare magnum” di informazioni e come estrarlo per metterlo al servizio di aziende e società
big data: cosa sono e a cosa servono

Di “Big Data” si parla da oltre vent’anni, precisamente da quando, nel 2001, la società di ricerca Gartner li ha identificati dandone una definizione: “risorse informative a elevato volume, velocità e varietà che richiedono forme di elaborazione delle informazioni economiche e innovative per potenziare la comprensione, la presa di decisioni e l’automazione dei processi”. In pratica, mentre prima si parlava solo di database che contenevano informazioni strutturate in tabelle e gestibili da una singola macchina, a un certo punto la velocità nella generazione di nuovi dati e il loro volume sono diventati ingestibili con gli strumenti tradizionali.

Per provare a comprendere di che quantità di dati si stia parlando, possiamo partire dai metodi di misura che ben conosciamo, ovvero gigabyte (GB) e terabyte (TB). Con i primi abbiamo familiarità con i nostri smartphone, che ormai mediamente si attestano su memorie da 64 o 128 GB, anche se non è raro trovare modelli di fascia alta che arrivano anche a 256 o 512 GB; con i secondi entriamo solitamente nel campo dei dischi fissi che usiamo come supporto per i nostri computer, magari per memorizzare foto e video, che richiedono molto spazio. Qui a livello di uso personale parliamo spesso di quantitativi che vanno da 1 a 4 TB, dove un TB equivale a mille GB.

Quanto sono grandi i Big Data?

Ovviamente le unità di misura non si fermano ai terabyte, ma vanno ben oltre: ci sono i petabyte (PB, ovvero mille TB), gli exabyte (EB, mille PB), gli zettabyte (ZB, mille EB) e gli yottabyte (YB, mille ZB). Quest’ultimo valore è ancora teorico, perché secondo i dati raccolti da Statista in tutto il mondo alla fine del 2021 erano memorizzati 79 ZB di dati, che secondo le stime più recenti della società di ricerche IDC potrebbero diventare 163 entro il 2025.

Oggi viviamo quindi nella cosiddetta “era degli zettabyte”, mentre quella degli yottabyte riguarda un futuro ancora (relativamente) lontano.
Anche vista così è però difficile far lavorare l’immaginazione tanto da comprendere questa quantità. Ci viene in aiuto Wikipedia, che spiega come uno zettabyte equivalga a un sestilione di byte o a 1021 (1.000.000.000.000.000.000.000) byte, oppure a un trilione di gigabyte. La popolare enciclopedia riporta anche le considerazioni fatte tempo fa da Eric Schmidt, ex CEO di Google, che ha detto che dall’inizio dell’umanità al 2003 erano stati creati circa cinque exabyte di informazioni, cioè lo 0,5% di uno zettabyte. Nel 2013, quella quantità di informazioni ha richiesto solo due giorni per essere creata, e quel ritmo è in continua crescita.

Ma da dove arrivano tutti questi dati? Dalle fonti più svariate, in cui quella quantitativamente più rilevante è legata alla gestione del video, proposto con risoluzione sempre più elevata. Poi ci sono i social network e l’Internet of Things, che sono due enormi generatori di dati. La caratteristica che accomuna tutte queste fonti è che si parla di dati “non strutturati”, ovvero non aggregati in forma tabellare, e quindi più difficil da analizzare.

A cosa servono e perché sono importanti

Nonostante questo, si è ben compreso quanta rilevanza abbia la possibilità di estrarne preziose informazioni. A livello aziendale, grazie a un’attenta valutazione dei contenuti, è possibile sfruttare i Big Data per ottenere diversi vantaggi.

Per esempio, è possibile migliorare il coinvolgimento dei clienti e aumentare le vendite, ma attraverso l’analisi di quei dati si possono fare importanti valutazioni per ridurre il “time to market” o ampliare l’offerta di nuovi prodotti e servizi. Aumentare i margini, ridurre i costi e identificare nuovi mercati sono alcune delle altre possibilità che si schiudono “leggendo” le informazioni raccolte.

I Big Data hanno un enorme impatto anche sulla vita sociale. Il periodo acuto della fase pandemica ha rappresentato un ottimo esempio di raccolta, gestione e analisi di grandi quantità di dati, con impatti diretti sulla salute dei cittadini.

Il turismo è un altro settore che può sfruttare bene queste analisi, per migliorare i flussi, destagionalizzare l’affluenza o monitorare la reputazione di un territorio. Raccogliere e valutare il cosiddetto “sentiment” rappresenta un’opportunità di miglioramento sociale che può essere perseguita tanto dalla politica quanto dalle istituzioni.

Tra i settori a noi più affini, possiamo dire che i Big Data sono fondamentali per i processi produttivi e la manutenzione, nell’edilizia pensando agli smart building o nel mondo dell’energia.

E questo sono solo alcuni degli innumerevoli esempi che si possono fare a proposito dell’utilità dei Big Data.

Le 5V dei Big Data, o forse sei…

Prima di capire come si possano effettuare analisi su queste informazioni e cosa serva per tradurre in pratica il loro valore è bene fare un passo indietro e capire in base a quali caratteristiche possono essere identificati. Il modello delle “V” nasce nel lontano 2001, quando l’analista Doug Laney lo descrisse in un report individuando i primi tre elementi: Volume, Velocità e Varietà. Il primo rappresenta la quantità dei dati, il secondo la rapidità con cui vengono generati e il terzo le differenti tipologie.
Nel tempo sono state poi aggiunte due ulteriori “V”: la Veridicità, che si riferisce alla qualità del dato, e la Variabilità, intesa come il diverso significato che può essere attribuito al dato in funzione del contesto in cui lo si colloca. Ultimamente si tende a considerare anche il Valore del dato, ovvero delle informazioni che possono essere ottenute mediante l’elaborazione e l’analisi di grandi set di dati. Il valore può anche essere misurato valutando le altre qualità dei Big Data o rappresentare la redditività delle informazioni recuperate dall’analisi.

Big Data Analytics: progetti, metodologie e applicazioni

Avere i dati a disposizione non è sufficiente per estrarne valore. Come abbiamo visto all’inizio la mole e la varietà dei Big Data ne rendono impossibile la raccolta e l’analisi con gli strumenti informatici tradizionali. È quindi nata una categoria specifica di soluzioni che ricade sotto il cappello degli Analytics. Si tratta di tecnologie che permettono di gestire dati destrutturati e di elaborali in tempo reale, ma anche di algoritmi e metodologie di analisi innovative capaci di estrapolare autonomamente le informazioni contenute nei dati.

big data analysis: tante opportunità per le azienda

Gli Osservatori Digital Innovation del Politecnico di Milano evidenziano quattro categorie di Analytics:

  1. quella descrittiva, che si limita a offrire una visione attuale e passata delle informazioni;
  2. quella predittiva, in cui strumenti avanzati provano a indicare tendenze future;
  3. quella prescrittiva, che arriva a proporre ai responsabili decisionali soluzioni strategiche sulla base dell’analisi effettuata;
  4. quella automatizzata, con strumenti capaci di portare avanti in modo autonomo le azioni necessario identificate durante il processo di analisi. A queste si potrebbe aggiungere la categoria diagnostica, che serve a identificare le cause che hanno portato a uno specifico evento.

Avviare un progetto di analisi dei Big Data significa affrontare diverse sfide, che possono essere vinte solamente avendo ben chiari gli obiettivi, le competenze necessarie e gli strumenti e metodologie che possono essere applicati.

Per un’azienda potrebbe per esempio essere interessante analizzare la reputazione del brand o monitorare un processo produttivo. Che un progetto nasca per risolvere un problema specifico o sia ideato per capire se esistono nuove opportunità è importante non avere fretta: è solo sul lungo periodo, infatti, che si riescono a far emergere le vere potenzialità dei Big Data.

I trend nei Big Data Analytics

Per capire verso quale direzione stia andando il mercato degli Analytics ci viene in aiuto l’Osservatorio Big Data & Business Analytics, che ha delineato le principali tendenze del 2022.

Il mercato italiano ha raggiunto nel 2021 i due miliardi di euro, in crescita del 13%, con un incremento importante da parte dei settori assicurazioni, manifatturiero e media & telecomunicazioni. Secondo quanto riportato dalla testata Big Data 4 Innovation, Il 54% delle grandi imprese (contro il 46% nel 2020) sta sperimentando gli Advanced Analytics (predittivi, prescrittivi e automatizzati), ma solo il 27% può essere definita un’azienda “data science driven”, ovvero dotata di competenze adeguate e progetti pervasivi per l’organizzazione.

Big data

L’Osservatorio ha identificato fondamentalmente cinque tendenze principali. La prima è quella legata all’automatizzazione degli strumenti di intelligenza artificiale (AI) e di machine learning (ML). L’obiettivo è quello di semplificare, uniformare e automatizzare le attività di data entry.

La seconda è quella di trovare soluzioni che portino al marketing geo-localizzato e a informazioni di dettaglio.

Una terza tendenza è più legata all’adozione di soluzioni di cloud ibrido, con processi eseguiti parzialmente all’interno del data center aziendale e in parte su infrastrutture pubbliche, e di “edge computing”, ovvero di strumenti di gestione dei dati collocati anche in sedi distaccate o periferiche. La necessità di gestire e analizzare dati che provengono da siti remoti rispetto all’azienda e di inserirli in un contesto dove il cloud ibrido è sempre più diffuso spiega l’esigenza di un’infrastruttura capace di adeguarsi a questi nuovi scenari.

Il quarto trend si sposta più sul fronte pubblico, dove la sempre maggiore diffusione di Open-data e la necessità di informazione in tempo reale portano alla ricerca di strumenti capaci di seguire in tempo reale lo stato di avanzamento dei grandi lavori e lo sviluppo di progetti strategici per l’Italia.

Infine, la quinta tendenza è quella verso la catalogazione dei dati, che sfrutta il modello integration-Platform-as-a-Service (iPaaS), per integrare applicazioni che vengono eseguite on-premises e nel cloud.

Le competenze

Ultimo grande capitolo che riguarda i Big Data è quello delle competenze. Cambiando gli strumenti, gli obiettivi e la “materia prima” di cui ci si occupa, ovvero i Big Data, sono naturalmente necessari profili professionali completamente nuovi, per una materia che viene definita “scienza dei dati”. Ad accomunare questi nuovi professionisti è la varietà delle conoscenze, a volte utili altre indispensabili, che devono far parte del bagaglio di ciascuno. In sostanza bisogna essere allo stesso tempo un po’ analisti, matematici, informatici ed esperti in economia.

Definire esattamente con un nome o una qualifica le professioni della Data Science non è quindi semplice. Ci ha provato l’Osservatorio del Politecnico, che ha individuato cinque professioni ritenute fondamentali per poter formare un team di persone esperto di Big Data che possa portare l’azienda a diventare “data-driven”:

  • Data Analyst – esplora, analizza e interpreta i dati, con l’obiettivo di estrapolare informazioni utili al processo decisionale
  • Data Scientist – è la figura professionale che si occupa delle fasi di sviluppo, training e testing di modelli statistici e algoritmi di apprendimento automatico
  • Data Engineer – gestisce le fasi di raccolta, processamento e integrazione dei dati.
  • Data Science Manager – gestisce l’intero processo di Data Science, coordinando un team centrale o favorendo la crescita e la formazione di analoghe figure distribuite.
  • Analytics Translator – è il “traduttore” tra la Data Science e il business che trasforma use case in linguaggio analitico e interpreta i risultati delle analisi.

Oltre a queste sono ovviamente coinvolte figure come quella del developer, a cui spetta il compito di trasformare l’operato del team Data Science in un prodotto o in un servizio, e del business analyst, che deve comprendere le esigenze aziendali e che può forse essere assimilato, almeno in parte, all’Analytics Traslator. In ogni caso parliamo di professioni in continua evoluzione, e quindi è necessario avere sempre mente e occhi aperti.

Vuoi rimanere aggiornato sui contenuti di ElettricoMagazine?
Iscriviti alla nostra newsletter!

Mailchimp subscribe

Paolo Galvani

Nato nel 1964, è giornalista professionista dal 1990 e si occupa di tecnologia dalla fine degli Anni ’80, prima come giornalista poi anche come traduttore specializzato. A luglio 2019 ha lanciato il blog seimetri.it, dedicato alla vita in camper, e collabora con diverse testate giornalistiche specializzate nel settore del turismo all’aria aperta.

tematiche ondigital

menu linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram