Blog

Big Data
Analisi dei Big Data Industria 4.0

Big Data: un asset industriale sempre più strategico

I Big Data stanno ricoprendo (e sempre di più ricopriranno) un’importanza fondamentale all’interno degli asset dell’industria manifatturiera.

Ad esempio, se ti piace cucinare, sai benissimo quanto sia importante rispettare le quantità, tempi e le temperature richieste al fine di garantire una qualità dei piatti soddisfacente. Se hai mai provato a fare una pizza, avrai imparato che il giusto mix di farina, acqua, lievito e sale, i tempi di lievitazione, la temperatura e il tempo di cottura sono tutti parametri che influenzano in maniera decisiva il risultato finale.

Questo è vero anche per qualsiasi processo manifatturiero: sia che si cucini una pizza o si realizzi un manufatto industriale, infatti, i parametri chiave di processo devono essere controllati nei minimi dettagli sostanzialmente per 2 motivi:

  • garantire il rispetto dei requisiti finali
  • ridurre al minimo la variabilità all’interno dei processi

Per avere processi di alta qualità occorre quindi:

  • Individuare i parametri critici
  • Essere in grado di raccoglierli in tempo reale ed in maniera efficiente
  • Essere in grado di tenerli sotto controllo
  • Reagire in tempi rapidi nel caso di deviazioni del processo

E’ chiaro quindi come sia fondamentale instaurare la cultura del dato all’interno delle aziende, soprattutto ora che con le tecnologie digitali è possibile raccogliere una grossa quantità di dati (i cosiddetti big data) e analizzarli in tempi e costi decisamente accessibili a tutte le realtà, soprattutto alle PMI.

 

Implementare un sistema di raccolta dati efficace

 

La raccolta dati, soprattutto in forma digitale, è diventata una prassi sempre più consolidata. Seppur scontata, non sempre questo processo è privo di difficoltà: la complessità dei sistemi industriali, la varietà di protocolli di rete e l’assenza in molti casi di standard fanno sì che questo processo richieda tempo, investimento e competenze spesso esterne all’azienda.

Tuttavia, quello che è importante notare è che non tutti i dati hanno la stessa importanza.

Sarebbe infatti inefficiente raccogliere un’enorme quantità di dati, quindi creare infrastrutture costose e inutili, se poi questi dati non servissero a rendere l’azienda più competitiva. Per questo, è fondamentale, prima di investire tempo e denaro, andare a investigare quali sono i dati fondamentali che devono essere raccolti.

Una volta definito il cosa, occorre scegliere il come. Dimentichiamoci la carta: rimarrebbe sulle nostre scrivanie in attesa di fare data-entry excel! Molto meglio implementare una infrastruttura digitale per rendere fruibili i dati in formati subito spendibili per le successive analisi. In questo senso, l’azienda dovrà strutturarsi di un database aziendale da cui attingeranno i vari applicativi di business analytics, erp mes ecc.

 

Analizzare i dati raccolti

 

“Va bene, ma cosa ce ne facciamo di tutti questi dati?”

“Mi conviene spendere soldi per raccogliere i dati? Alla fine il cliente non me li richiede!”

 

Queste domande che spesso mi vengono rivolte sono piuttosto comuni per chi non ha dimestichezza con i processi.

Come detto in precedenza, i processi dipendono dai parametri e non possiamo controllare i processi senza conoscere questi parametri, meglio se puntuali e in tempo reale.

 

“Non si può migliorare ciò che non si conosce”

 

Questa è la mia risposta.

L’analisi dei dati deve essere affidata a professionisti in grado di estrapolare le informazioni a valore aggiunto mediante l’analisi. I data scientist non necessariamente conoscono i processi industriali (anche se sarebbe comunque buona cosa), tuttavia hanno le competenze matematiche e spesso anche informatiche necessarie allo scopo.

In ambito industriale, ad esempio, tali competenze sono per lo più di tipo statistico: strumenti come la regressione lineare o test delle ipotesi, la scelta di un campione rappresentativo e con numerosità adeguata, ad esempio, permettono di individuare su basi oggettive e con un livello di confidenza fissato (normalmente 95%) le cause delle deviazioni di processo.

 

Estrapolazione delle informazioni in tempo reale

 

L’ Intelligenza Artificiale, ovvero l’implementazione di algoritmi per l’analisi in tempo reale dei big data, ad oggi può eseguire molte delle attività eseguite dai data scientist, con evidenti vantaggi

  • in termini di costi: costo non ricorrente e complessivamente inferiore ai costi ricorrenti dei data scientist
  • in termini di tempo: l’analisi avviene sostanzialmente in tempo reale, a differenza dei data scientist che richiedono ovviamente un tempo maggiore per effettuare le loro analisi

Sul mercato esistono diverse soluzioni in grado di aiutare le aziende ad implementare un sistema robusto di analisi dei dati in tempo reale.

 

Garantire lo scambio delle informazioni a tutte le parti interessate

 

Fare in modo che le informazioni a valore aggiunto vengano condivise con le parti interessate rappresenta l’ultimo passo per capitalizzare i dati raccolti. A che serve infatti se l’informazione non raggiunge il responsabile del processo o di miglioramento continuo in tempi brevi?

In questo senso, sarà necessario creare una infrastruttura e un sistema informatico aziendale adeguato, attraverso l’integrazione dei vari software (ERP, PLM e MES su tutti) fruibili nei propri server o nel cloud, ormai soluzione sempre più comune che offre notevoli vantaggi.

Infine, occorrerà assicurarsi che lo scambio delle informazioni, e quindi dei dati, avvenga in maniera sicura. Ovvero, bisognerà adottare tutti gli accorgimenti propri della sicurezza informatica per evitare che tali informazioni ci vengano rubate o che il sistema vanga attaccato e reso non funzionante.

Da dove iniziare?

In questo breve post abbiamo evidenziato quale importanza i dati stanno ricoprendo sempre di più e a tutti i livelli aziendali, in particolare nei contesti produttivi.

Occorre considerare il dato come un vero e proprio asset aziendale, quindi è importante

  • definire quali dati raccogliere
  • pianificare un sistema di raccolta dati efficiente
  • dotarsi di un sistema adeguato di analisi dei dati
  • fare in modo le informazioni estratte vengano condivise a tutte le parti interessate
  • garantire un livello adeguato di sicurezza informatica

Se vuoi sapere come implementare una strategia di raccolta e analisi dei dati per l’implementazione di Fabbriche Intelligenti, ti consigliamo il nostro catalogo in lingua inglese dove troverai molti corsi che possono fare al caso tuo.

 

A presto

Nicola Accialini

Hi there! I am Nicola, founder and admin of SkillS4i. Aerospace Engineer, technology enthusiast and industrial expert. I live in Spain and I like travelling, cycling, hiking and reading.

Iscriviti
Notificami
guest
0 Comments
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x