Hoge data latency? Dit is hoe een modern dataplatform je daarbij helpt

Redactie WINMAG Pro
De snelheid waarmee data door je organisatie stroomt, bepaalt grotendeels het succes van gebruik van die data. Directe toegang tot actuele, relevante informatie zorgt voor de beste en snelste besluitvorming. In een omgeving waar snelle data het verschil maakt tussen een succesvolle productie en een verspilling van inzet en grondstoffen, is het voorkomen van hoge data latency van cruciaal belang. Wat kun je als organisatie doen om het te voorkomen?

Dat is niet de minste uitdaging. De groeiende berg data is niet per se een resultaat van mensen die meer data genereren. De gegevens komen met name van systemen binnen organisaties. Denk daarbij aan het Internet of Things (IoT), waarbij allerlei machines en sensoren zelf data creëren en verzenden. Die data is vaak niet ‘zomaar’ bruikbaar; niet elke computer spreekt namelijk dezelfde taal. In 2013 waren er nog ‘slechts’ 162 verschillende data formats. Zes jaar later was dat al verdubbeld, naar 341 in 2019. Toch zijn organisaties afhankelijk van gebruik van al die data, die in verschillende silo’s liggen maar toch vergeleken of gecombineerd moeten worden. Dat helpt de verwerkingssnelheid niet, terwijl we op zoek zijn naar een zo laag mogelijke data latency. Daarom de vraag: hoe lossen organisaties dat op?

Een modern, overkoepelend dataplatform kan uitkomst bieden. Robert Eggermont, salesmanager bij InterSystems, legt in drie punten uit hoe zo’n dataplatform ervoor zorgt dat data zo snel mogelijk door de organisatie stroomt.

1. Alle data is welkom

Een dataplatform dat zich focust op een zo laag mogelijke data latency, zorgt ervoor dat alle data zo eenvoudig mogelijk te vinden is. Dat houdt in dat alle verschillende soorten gegevens in dit overkoepelende dataplatform te vinden zijn, en dat je geen complexe programma’s hoeft te gebruiken om verschillende datasilo’s op te zoeken en daar data uit te oogsten. Het is logisch dat je minder latency krijgt als je minder verschillende programma’s in je systeem hebt draaien.

2. Interoperabiliteit en analyse

Interoperabiliteit is een enorm hoge prioriteit voor moderne dataplatformen. Wat heb je er immers aan om alle verschillende dataformats op te halen en in te laden, om vervolgens lastige omwegen te moeten zoeken om die data samen te brengen en bruikbaar te maken? Stel, je hebt een machine die data genereert van format X, en je machine learning algoritme heeft format Y als input nodig. Je platform zorgt voor een soort vertaalslag die de verschillende systemen samen kan laten werken. Analyse van data, en het trekken van conclusies die je organisatie verder helpen, is namelijk alleen mogelijk als de data vergelijkbaar is. Een dataplatform helpt je me het behouden van overzicht, en regelt dat de verschillende soorten data elkaar verstaan. Zo behoud je een zo laag mogelijke data latency.

3. Betrouwbaarheid

De ergste vorm van latency is misschien wel de vertraging die ontstaat door systemen die ‘downtime’ hebben en simpelweg niet werken, of door andere technische mankementen in de programma’s. Hoe meer verschillende systemen bij een dataketen betrokken zijn, des te groter is de kans op deze kwalen. De betrouwbaarheid van één bewezen platform voorkomt zulke kostbare downtime.

Van inzicht naar actie

Data ophalen, inladen en analyseren heeft alleen zin als die data als input gaat dienen voor een (liefst belangrijk) bedrijfsproces. Op z’n simpelst gezegd brengt succesvol datagebruik je van inzicht naar actie. En de beste manier om dat te doen is om een proces te vinden waarin dat proces schaalbaar is, dus geen aparte oplossing per toepassing is. Het hoort een flexibele oplossing te zijn, een omgeving waarin je niet aan een dataformat of licentie gebonden bent. Die interoperabiliteit is immers van cruciaal belang. Er is data genoeg in de wereld, en dataplatforms zijn er om succesvol van die data gebruik te maken.

afbeelding van Redactie WINMAG Pro

Redactie WINMAG Pro | Redacteur

Bekijk alle artikelen van Redactie