Approfondimenti

Big Data e Intelligenza Artificiale: come i dati diventano valore

Un dato è per definizione una rappresentazione di qualcosa che accade, un fenomeno, in forma grezza. Dal processo di analisi di una serie di dati deriva invece l’informazione.
Quando le informazioni acquisite dall’analisi dei dati si trasformano in linee guida, quando le vengono messe in pratica, abbiamo la conoscenza.
E cosa succede se parliamo non più di un dato ma di un’enorme quantità di dati? Scopriamolo!

Che cosa sono i Big Data?

Quando parliamo di Big Data ci riferiamo a una mole di dati talmente ampia e complessa da richiede l’utilizzo di metodologie e di strumenti di calcolo diversi da quelli tradizionali al fine di riuscire a estrapolare, gestire e analizzare tutte le informazioni entro un limite di tempo ragionevolmente accettabile.
Pensiamo a quante tracce ognuno di noi lascia online ogni giorno, quando cerchiamo informazioni o acquistiamo prodotti e servizi, quando interagiamo sui canali social o svolgiamo il nostro lavoro. Tutti questi dati contengono moltissime informazioni importanti sulle nostre abitudini e sul nostro stile di vita. Informazioni che possono essere di enorme valore per aziende ed organismi governativi. Per questo motivo, le organizzazioni che vogliono essere data-driven hanno la necessità, non solo di raccogliere questa grande mole di dati, ma soprattutto di riuscire a estrapolarne informazioni e conoscenza.

Le 5 V e alcuni numeri da considerare

Di Big Data si parla già dagli inizi degli anni 2000, proprio nel 2001 Doug Laney definì le dimensioni che li caratterizzavano come le 3V: Volume, Velocità e Varietà. Successivamente sono state incluse anche Veridicità e Variabilità. Ma di cosa si tratta?
Vediamo in dettaglio il significato di queste caratteristiche:

  1. volume, mole di dati elevata e in continua forte crescita, gli analisti identificano i Big Data nel caso in cui si superi la soglia dei 50 Terabyte o di una crescita del volume di dati superiore al 50% all’anno;
  2. velocità, dati che vengono generati e acquisiti velocemente, questo comporta una grande sfida perché non solo i dati devono essere raccolti correttamente ma vanno anche analizzati in tempi sempre più rapidi per poter diventare informazioni di valore;
  3. varietà, dati eterogenei per fonte di provenienza e per tipologia di formato. Parliamo ad esempio di dati provenienti dalle aziende, dai social network, di open data, dell’Internet of Things, ecc;
  4. veridicità, dati qualitativamente solidi e affidabili, anche quando ci troviamo di fronte a molteplici fonti e a grandi volumi bisogna preservarne l’integrità;
  5. variabilità, dati che possono cambiare di significato in base al contesto a cui si riferiscono e che quindi vanno analizzati tenendo in considerazione le differenti possibili interpretazioni.

Qualche numero può aiutarci a comprendere meglio queste caratteristiche:

  • secondo Statista nel 2022, la quantità di dati che è stata creata, acquisita, copiata o consumata è stata di circa 97 Zettabyte (1 Zettabyte corrisponde a 1 triliardo di byte, ossia uno spazio sufficiente per 12.288 milioni di video in 4K), un numero che dovrebbe crescere fino a 181 Zb entro il 2025;
  • nel 2022, secondo la ricerca “Data never sleeps 10.0” di Domo, ogni minuto sono state effettuate 5,9 milioni di ricerche su Google, inviate 231 milioni di mail e condivisi 1,7 milioni di contenuti su Facebook. Nel 2013 erano rispettivamente 2 milioni, 204 milioni e 684 mila… una crescita davvero esponenziale!

Quale Intelligenza Artificiale per i Big Data?

L’espressione “Big Data” è la popolarizzazione delle tecniche di Machine Learning: far lavorare i computer su enormi volumi di dati per scoprire legami e tendenze che gli uomini non possono vedere. E questo spiega tutte le grandi scoperte che stiamo facendo in questi anni.
Kenneth Cukier − Senior Editor Digital Products dell’Economist.

Lo sviluppo dell’Intelligenza Artificiale è andato di pari passo con il boom dei Big Data proprio perché questa ingente mole di dati ha bisogno di tecnologia sempre più avanzata per trasformarsi in valore, in informazioni comprensibili e analizzabili. Ed è proprio nella vasta quantità di dati che ha trovato facile sviluppo una branca specifica dell’Intelligenza Artificiale, il Deep Learning.
Sappiamo che il Machine Learning ci permette di svolgere alcune azioni come tradurre la voce in testo, individuare delle immagini o dei particolari in esse, restituire risultati pertinenti a una ricerca da parte degli utenti e molto altro. Ma nel caso dei Big Data è in particolare una sottocategoria di Machine Learning a trovare grande applicazione: il Deep Learning.
Le reti neurali artificiali e gli algoritmi di Deep Learning hanno infatti bisogno di grandi quantità di dati per funzionare al meglio, a fronte di un minimo intervento umano. Di conseguenza, i Big Data diventano perfetti per allenare i modelli e ottenere risultati in tempi relativamente brevi.
La crescita dei Big Data abbiamo visto essere esponenziale, ma non sempre risulta sufficiente per allenare i modelli di Deep Learning. In questo caso è possibile applicare l’Intelligenza Artificiale per contribuire attivamente a creare un’ulteriore mole di dati, i cosiddetti dati sintetici, che permetta di ovviare ad alcune lacune che si possono ritrovare nei Big Data come l’assenza di annotazioni accurate o l’impossibilità di adattarli a tutte le necessità degli algoritmi complessi.

Big Data e AI in pratica

Le applicazioni del binomio Big Data e Intelligenza Artificiale sono molte e riguardano settori completamente diversi tra loro, ad esempio:

  • riconoscimento delle immagini, può essere utilizzato per diversi scopi come l’analisi di problematiche di salute, resa possibile grazie l’accesso a banche di foto ed immagini nazionali o mondiali;
  • riconoscimento vocale, che già oggi conosciamo e utilizziamo quando interagiamo con Siri, Alexa, Google Assistant e che permetterà sempre più di usare direttamente la nostra voce per interagire con la tecnologia;
  • guida autonoma, l’analisi dei dati a disposizione e la creazione di nuovi dataset artificiali (dati sintetici) permette di accelerare il progresso tecnologico necessario alla guida autonoma di macchine e veicoli commerciali (impensabile se si dovesse aspettare di avere il volume sufficiente di dati a disposizione);
  • prodotti iper-personalizzati, l’utilizzo congiunto di notevoli volumi di informazioni e di strumenti per analizzarli permetteranno di offrire prodotti sempre più vicini ai desideri e alle necessità delle persone proprio perché studiati in base ai loro comportamenti di partenza.

In sintesi: come l’AI permette di gestire i Big Data

Gli elementi caratterizzanti dei Big Data, le 5V, evidenziano come sia necessaria una tecnologia evoluta per poterli analizzare e per poterne trarre valore. Diventa per questo cruciale il ruolo dell’Intelligenza Artificiale che non solo permette di analizzare enormi volumi di dati, ma può anche utilizzarli per apprendere in autonomia. Si crea quindi un circolo virtuoso che si alimenta generando sempre maggiore valore a partire da una base dati che rispetti le caratteristiche fondamentali: velocità, volume, varietà, veridicità, variabilità.

Non perderti nessuna novità, continua a seguire il blog Skilla!

Scritto da: Camilla Zan e Arianna Meroni il 11 Maggio 2023

Potrebbe interessarti anche

© Copyright 2024 Amicucci Formazione | P.IVA 01405830439 | Cap. Soc.: Euro 100.000,00 (i.v.) | C.C.I.A.A. (Macerata) | R.E.A. (149815) | Privacy policy | Cookie policy | Etica e compliance