Hoeveel downtime kun je vermijden als je machine data gaat analyseren?
Downtime is zelden een “plots probleem”. Meestal is het een signaal dat vroeger zichtbaar was… maar niemand zag het.
Of niemand had tijd om er iets mee te doen.
Herkenbaar?
- een lager dat “iets luider” begint te klinken
- een motor die net iets meer stroom vraagt
- een cyclus die langzaam trager wordt
- temperatuur die afwijkt, maar niet alarmeert
- foutmeldingen die sporadisch opduiken… tot het misloopt
En dan gebeurt het:
- stilstand
- stress
- spoedinterventie
- verloren productie
Het probleem is niet dat je geen data hebt
Het probleem is dat je data vaak:
📌 verspreid zit
📌 niet geanalyseerd wordt
📌 pas bekeken wordt als het al te laat is
Wat als een AI agent continu meekijkt?
Een AI agent kan 24/7 machine data analyseren en:
🤖 afwijkingen herkennen vóór de storing optreedt
🤖 patronen zien die mensen missen
🤖 waarschuwingen geven mét context
🤖 automatisch de juiste parameters/logs verzamelen
🤖 een interventie voorstellen voordat het escaleert
Geen dashboards waar niemand naar kijkt, maar een digitale collega die je waarschuwt wanneer het vijf voor twaalf is.
Combineer dat met remote access…
En je gaat van:
We hebben een probleem, iemand moet gaan kijken…
naar:
We zien het probleem aankomen, we lossen het remote op vóór het stilvalt.
Dus:
- minder interventies
- minder downtime
- minder brandjes blussen
- meer controle over je productie
De vraag is dus niet of je downtime hebt.
De vraag is hoeveel downtime je nog accepteert omdat je machine data niet slim genoeg gebruikt?
Met Gump kunnen we hierbij helpen!
Wat betekent dat concreet in cijfers?
In productieomgevingen zien we typisch dat 30% tot 50% van ongeplande downtime vooraf signalen geeft in machine data.
Niet elke storing is voorspelbaar.
Maar veel storingen zijn géén toeval, ze bouwen zich op.
Denk aan:
- lagers die geleidelijk verslijten
- motoren die meer stroom trekken
- cyclustijden die langzaam oplopen
- temperatuurafwijkingen die nét onder alarmniveau blijven
Wanneer je die signalen systematisch analyseert, kan je een aanzienlijk deel van je ongeplande stilstanden vermijden of minstens plannen.
Zo kan je het zelf berekenen
Gebruik deze eenvoudige formule:
Stap 1: Bereken je jaarlijkse ongeplande downtime
Aantal uren ongeplande stilstand per jaar × kost per uur stilstand
Voorbeeld:
- 120 uur ongeplande stilstand per jaar
- € 5.000 kost per uur (productieverlies + personeel + spoedinterventie)
= € 600.000 jaarlijkse impact
Stap 2: Bepaal het realistisch vermijdbare deel
In het geval van een conservatieve inschatting:
=> 30% van ongeplande downtime is voorspelbaar met data-analyse
In dit voorbeeld:
30% van 120 uur = 36 uur
36 uur × € 5.000 = € 180.000 vermijdbare kost per jaar
Wat verandert er dan concreet?
Je gaat van:
❌ onverwachte stilstand
❌ spoedinterventies
❌ stress en productieverlies
naar:
✔ geplande interventies
✔ onderhoud wanneer het nodig is (niet te vroeg, niet te laat)
✔ minder productie-impact
✔ meer voorspelbaarheid
En zelfs als je géén 30% haalt, maar 15–20%?
Dan spreken we nog steeds over significante bedragen.
De echte vraag
Hoeveel kost één uur stilstand in jouw productie?
En hoeveel van die uren zijn eigenlijk geen toeval, maar gemiste signalen?
Dat is wat wij met Gump in kaart brengen!