Zscaler ThreatLabz AI Threat Report: stijging van 91% in AI/ML-activiteit zorgt voor groeiende toezichtskloof
Uit onderzoek van Zscaler blijkt dat organisaties niet goed voorbereid zijn op de volgende golf van door AI-gedreven cyberrisico’s, vooral naarmate AI steeds meer geïntegreerd raakt in de bedrijfsvoering. Op basis van een analyse van bijna een biljoen AI/ML-transacties op het Zscaler Zero Trust Exchange-platform tussen januari en december 2025, toont het onderzoek aan dat AI is getransformeerd van een productiviteitstool naar een primaire vector voor razendsnelle autonome conflicten.
'AI is niet langer alleen een productiviteitstool, maar een primair wapen voor razendsnelle autonome aanvallen door zowel cybercriminelen als natie-staten', aldus Deepen Desai, EVP Cybersecurity bij Zscaler. 'In het tijdperk van Agentic AI kan een inbreuk binnen enkele minuten leiden tot laterale verplaatsing en datadiefstal. Traditionele verdedigingsmechanismen kunnen deze snelheid niet aan en raken achterhaald. Om deze race te winnen, moeten organisaties AI met AI bestrijden door een intelligente zero trust-architectuur te implementeren die alle mogelijke aanvalsroutes afsluit.'
AI in de organisatie: opkomende trends en beveiligingsproblemen
AI-adoptie gaat sneller dan toezicht
AI wordt nu in bijna alle bedrijfsfuncties gebruikt, maar in veel sectoren schaalt de adoptie sneller dan toezicht kan bijhouden. De financiële en verzekeringssector blijft qua volume de meest AI-gedreven sector - goed voor 23% van al het AI/ML-verkeer. De technologie- en onderwijssector maken een enorme groei door van het aantal transacties op jaarbasis, respectievelijk 202% en 184%. Desondanks onthult het onderzoek van Zscaler een cruciale kloof: veel organisaties hebben nog steeds geen basisinventarisatie van actieve AI-modellen en ingebouwde AI-functies, waardoor ze niet precies weten waar gevoelige gegevens kwetsbaar zijn.
100% van de AI-systemen blijkt kwetsbaar voor inbreuken
Hoewel discussies over AI-beveiliging zich vaak richten op hypothetische dreigingen, onthult het Red Team-onderzoek van Zscaler een duidelijke realiteit: wanneer AI-systemen worden getest onder reële vijandige omstandigheden, begeven ze het bijna onmiddellijk. Bij gecontroleerde scans kwamen kritieke kwetsbaarheden binnen enkele minuten aan het licht. De mediane tijd tot de eerste kritieke storing was slechts 16 minuten. 90% van de systemen werd binnen 90 minuten gecompromitteerd. In het meest extreme geval werd de beveiliging in één seconde omzeild.
ThreatLabz waarschuwt verder dat autonome en semi-autonome Agentic AI zorgt voor meer geautomatiseerde cyberaanvallen. Hierbij worden AI-agents ingezet voor verkenning, exploitatie en laterale verplaatsing. Verdedigers moeten ervan uitgaan dat aanvallen zich op ‘machine-speed’ kunnen schalen en aanpassen.
AI-gebruik verviervoudigt, wat leidt tot nieuwe kwetsbaarheden in de supply chain
ThreatLabz ontdekte dat de hoeveelheid AI/ML-activiteit met 91% is toegenomen ten opzichte van een jaar eerder, tot een ecosysteem van meer dan 3.400 applicaties. Deze snelle adoptie heeft ertoe geleid dat veel organisaties geen duidelijk beeld meer hebben van welke AI-modellen met welke data interageren of van de supply chain die daarachter schuilgaat. ThreatLabz waarschuwt dat deze AI-supply chain steeds vaker een primair doelwit is van cybercriminelen, omdat zwakke plekken in veelgebruikte modelbestanden aanvallers in staat stellen om lateraal toegang te krijgen tot de kernsystemen van bedrijven.
Onbeheerde ingebedde AI creëert kritieke risico’s op datalekken
Er vindt een enorme hoeveelheid activiteit plaats op ‘standalone AI’ zoals ChatGPT, dat in 2025 115 miljard transacties registreerde, en Codeium, dat 42 miljard transacties registreerde. ‘Ingebedde AI’, AI-functionaliteiten die direct zijn ingebouwd in alledaagse SaaS-applicaties en -platforms, zijn uitgegroeid tot een van de snelst groeiende bronnen van onbeheerde AI-risico’s. Omdat deze functies vaak standaard zijn ingeschakeld en niet worden gedetecteerd door traditionele beveiligingsfilters, vormen ze een achterdeur waardoor gevoelige bedrijfsgegevens ongemerkt in AI-modellen terechtkomen. Van alle geanalyseerde platforms was Atlassian een belangrijke bron van ingebedde AI-activiteit. Deze bevinding weerspiegelt de wijdverbreide toepassing van AI-gestuurde functies binnen zijn kernplatforms, waaronder Jira en Confluence.
18.000TB aan data in AI-modellen vormt een nieuw doelwit voor aanvallers
In 2025 steeg de hoeveelheid bedrijfsdata die naar AI/ML-toepassingen werd overgedragen naar 18.033 terabytes (TB) - een stijging van 93% ten opzichte van het jaar ervoor. Dit staat ongeveer gelijk aan 3,6 miljard digitale foto’s. Deze enorme toestroom van data heeft tools zoals Grammarly (3.615TB) en ChatGPT (2.021TB) getransformeerd tot ‘s werelds meest geconcentreerde opslagplaatsen van bedrijfsintelligentie.
Deze datastroom heeft geleid tot 410 miljoen schendingen van Data Loss Prevention (DLP)-beleid alleen al vanuit ChatGPT. Hieronder vallen pogingen om toegang te krijgen tot burgerservicenummers, broncode en medische dossiers. Deze bevindingen geven aan dat AI-governance is verschoven van een beleidsdiscussie naar een onmiddellijke operationele noodzaak. ThreatLabz waarschuwt dan ook dat naarmate deze repositories groeien, ze steeds vaker doelwit worden voor cyberspionage.
Lees ook: Dynatrace Perform 2026 luidt een nieuw tijdperk in van autonome intelligentie en innovatie
Moderniseer AI-beveiliging met zero trust
Traditionele firewalls en VPN’s schieten tekort in dynamische AI-omgevingen, waardoor hiaten in het zicht op AI-toepassingen en blinde vlekken in de beveiliging ontstaan. Zscaler vervangt deze complexiteit door AI-native beveiliging en biedt real-time zichtbaarheid en vangrails die nodig zijn om veilig te innoveren.
De Zscaler Zero Trust Exchange helpt organisaties AI-gestuurde dreigingen een stap voor te blijven door:
- Aanvalsoppervlakken te elimineren: Continue verificatie en toegang met minimale privileges.
- AI-dreigingen te blokkeren: Al het verkeer, inclusief versleutelde gegevens, wordt geïnspecteerd om dreigingen in real time te stoppen.
- Gegevens overal te beschermen: Gevoelige gegevens worden automatisch ontdekt en geclassificeerd in alle omgevingen.
- Laterale bewegingen te neutraliseren: AI-gestuurde segmentatie wordt gebruikt om aanvallers in te dammen.
- Reacties te optimaliseren: Voorspellende AI wordt benut om beveiligingsoperaties en posture management te versnellen.
De snel toenemende adoptie van AI vereist een nieuwe aanpak voor beveiliging. Download hier het volledige ThreatLabz 2026 AI Security Report voor de uitgebreide dreigingsanalyse en bruikbare best practices.
Lees ook: Zscaler presenteert verschillende nieuwe innovaties voor veilige implementatie van AI
Methodologie
Het rapport is gebaseerd op een analyse van 989,3 miljard AI/ML-transacties die zijn gegenereerd door circa 9.000 organisaties via de Zscaler Zero Trust Exchange tussen januari 2025 en december 2025. Deze gegevens bieden een gefundeerd beeld van hoe AI daadwerkelijk wordt gebruikt (en beperkt) in wereldwijde omgevingen.