Navigando online, generiamo ogni minuto una mole incredibile di dati: tutte informazioni preziose per le aziende che, rielaborandole, riescono a impostare strategie mirate. Ma il tema è molto delicato sotto il profilo della privacy
“Knowledge is power”, diceva il filosofo Francis Bacon: la conoscenza è potere. Ebbene, volendo rivedere la citazione in chiave contemporanea, potremmo dire che oggi “Data is power” – che poi più o meno è la stessa cosa. Oggi la conoscenza arriva infatti dai dati e il possesso dei dati – o meglio, la capacità di estrarne valore, organizzandoli e analizzandoli – è la vera ricchezza di un’azienda.
I dati sono ovunque e siamo noi stessi a generarne continuamente di nuovi, con pochi clic sul nostro smartphone o tablet. Basta navigare sui social network, effettuare una ricerca su Google, visitare un sito web. Pensando al fenomeno su scala globale, è facile immaginare il volume incredibile di dati prodotti ogni giorno: si tratta di informazioni eterogenee per fonte e formato, pronte per essere immagazzinate, gestite e studiate.
Una vera miniera d’oro per chi riesce a sfruttarle. Una volta trasformate, infatti, queste informazioni possono aiutare le aziende a impostare strategie mirate su esigenze e comportamenti della clientela – dalle iniziative di marketing alla definizione stessa dell’offerta, solo per citare qualche esempio.
Pensiamo ai social network, come Facebook, che utilizzano i numerosi dati forniti ogni minuto dagli utenti (con chi ci relazioniamo, cosa apprezziamo, dove ci troviamo) per decidere quali contenuti mostrare a ognuno e quali prodotti suggerire. Un principio molto simile guida i risultati di ricerca di YouTube, Netflix, Google, Amazon, che basano le proprie proposte su un’analisi dei nostri comportamenti.
Big data e big data analytics. Come accennato, però, i dati “grezzi” sono inutili: per farli “fruttare” occorre organizzarli e trasformarli tramite algoritmi e tecnologie di analisi. Nelle aziende si fanno strada così nuove competenze per la valorizzazione del dato e cambiano i processi di raccolta e gestione di queste preziose informazioni (avete presente il termine “data analytics”?), in grado di offrire un vantaggio competitivo enorme non solo alle grandi società, ma anche alle piccole e medie imprese. Stando all’ultimo Osservatorio Big Data Analytics e Business Intelligence del Politecnico di Milano, il 46% delle grandi imprese ha già inserito nel proprio organico figure di data scientists, il 42% ha assunto data engineers, il 56% data analysts. Nonostante una crescita del numero di imprese in cui il livello di utilizzo della data science è ormai elevato (attualmente il 31%), più della metà (55%) presenta però un modello organizzativo ancora tradizionale, evidenzia ancora lo studio del PoliMi.
In che cosa consistono le tecniche di Data Analytics? Quando le organizzazioni decidono di applicare metodologie di analisi dei dati, possono farlo con differenti livelli di maturità, in termini di modelli d’analisi, algoritmi e tool tecnologici da mettere in campo. In base a questi livelli, l’Osservatorio del Politecnico di Milano identifica quattro classi di analytics: descrittiva, predittiva, prescrittiva e automatizzata. Un po’ tutte le organizzazioni fanno uso di descriptive analytics, ma sta aumentando in modo considerevole anche la parte relativa ai livelli successivi più avanzati. Vediamoli nel dettaglio.
- Descriptive Analytics. Ricadono sotto questa categoria gli strumenti orientati a descrivere la situazione attuale e passata dei processi aziendali e/o delle aree funzionali. Tali strumenti permettono di visualizzare in modo sintetico e grafico i principali indicatori di prestazione.
- Predictive Analytics. Si tratta di strumenti avanzati che effettuano l’analisi dei dati per rispondere a domande relative a cosa potrebbe accadere nel futuro. Queste tipologie di analisi si caratterizzano per l’utilizzo di tecniche matematiche quali regressione, forecasting, modelli predittivi e via dicendo.
- Prescriptive Analytics. In questo caso parliamo di modelli di ottimizzazione che riescono a ipotizzare una serie di scenari futuri: a partire dall’analisi dei dati, si arriva a proporre al decision-maker soluzioni operative/strategiche sulla base delle analisi svolte.
- Automated Analytics. Sono strumenti capaci di implementare autonomamente l’azione proposta secondo il risultato delle analisi dei dati svolte.
A che punto è il mercato? Quanto ai numeri del mercato italiano dei big data analytics, esso ha continuato a espandersi nel 2018, raggiungendo un valore complessivo di 1,39 miliardi di euro, in crescita del 26% rispetto all’anno precedente (fonte: Osservatorio Big Data Analytics e Business Intelligence del Politecnico di Milano). Un risultato che conferma il trend positivo degli ultimi tre anni, in cui il settore è cresciuto in media del 21% ogni 12 mesi, anche se rimane molto ampio il divario fra le grandi imprese, che si dividono l’88% della spesa complessiva, e le PMI, che rappresentano il 12% del mercato. Il 45% della spesa in Analytics è dedicato ai software (database e strumenti per acquisire, elaborare, visualizzare e analizzare i dati, applicativi per specifici processi aziendali), il 34% ai servizi (personalizzazione dei software, integrazione con i sistemi informativi aziendali, consulenza di riprogettazione dei processi) e il 21% alle risorse infrastrutturali (capacità di calcolo, server e storage da impiegare nella creazione di servizi di Analytics). Tra i comparti merceologici, invece, le prime per quota di mercato sono le banche (28% della spesa), seguite da manifatturiero (25%), telecomunicazioni e media (14%), servizi (8%), GDO/retail (7%), assicurazioni (6%), utility (6%) e PA e sanità (6%).
Per poter visualizzare i commenti devi accettare i cookie facoltativi, clicca qui per cambiare le tue impostazioni sui cookie.