HarfangLab waarschuwt voor nieuwe AI-gedreven cyberrisico’s
AI is niet langer een experimentele technologie in cybersecurity, maar een structurele factor aan zowel de aanval- als de verdedigingskant. Volgens het AI Engineering team van de Europese securityspecialist HarfangLab verschuift het speelveld in hoog tempo. Organisaties krijgen te maken met geavanceerdere desinformatiecampagnes, manipulatie van AI-modellen en een sterke toename van hypergepersonaliseerde phishing.
Desinformatie en manipulatie van AI-modellen nemen toe
Door de snelle opkomst van open source AI-modellen en het groeiende gebruik van large language models (LLM’s) voor informatievoorziening, wordt het steeds moeilijker om feit van fictie te onderscheiden. Kwaadwillenden maken gebruik van AI om overtuigende nepcontent te produceren, van tekst en beeld tot audio en video.
Daarnaast wijst HarfangLab op het risico van zogenoemde data poisoning. Onderzoek toont aan dat minimale aanpassingen in trainingsdata al voldoende kunnen zijn om het gedrag van een model structureel te beïnvloeden. Dat vergroot het risico op gemanipuleerde output, met impact op besluitvorming en onderzoek.
'Vertrouwen in AI-tools kan alleen bestaan als er technologische waarborgen, transparantie, duidelijke regels en onafhankelijke controles zijn,' zegt Pierre Delcher, Head of Threat Research bij HarfangLab. 'Ontbreekt één van die pijlers, dan kunnen kleine kwetsbaarheden uitgroeien tot systeemrisico’s.'
AI als aanvalsvector in de softwareketen
Een andere zorgwekkende ontwikkeling is het gericht manipuleren van code die door large language models wordt gegenereerd. Uit onderzoek blijkt dat aanvallers LLM’s kunnen beïnvloeden zodat zij onveilige of kwaadaardige code voorstellen aan ontwikkelaars. De AI-assistent wordt daarmee zelf onderdeel van de aanval.
In plaats van een specifieke kwetsbaarheid in bestaande software uit te buiten, verschuift de aanval naar het ontwikkelproces zelf. Wanneer gemanipuleerde code wordt overgenomen in applicaties of softwarebibliotheken, kan de impact zich verspreiden via de hele softwareketen. Net als bij eerdere grootschalige supply chain-aanvallen kan dit duizenden of zelfs miljoenen eindgebruikers raken.
Hypergepersonaliseerde en schaalbare phishing
Phishing blijft de meest zichtbare AI-gerelateerde dreiging, maar de aard ervan verandert fundamenteel. Waar gepersonaliseerde fraude voorheen handmatig en tijdrovend was, maakt AI het mogelijk om dit proces op grote schaal te automatiseren en te verfijnen.
Aanvallen beperken zich niet langer tot e-mail en sms (phishing en smishing). Ook spraak wordt ingezet via AI-gegenereerde stemmen (vishing), waarbij aanvallers zich overtuigend kunnen voordoen als collega’s, leidinggevenden of leveranciers. Met de snelle verbetering van contentgeneratie wordt ook het gebruik van deepfakes laagdrempeliger, waardoor online oplichting geloofwaardiger en moeilijker te herkennen wordt.
Volgens HarfangLab evolueert phishing daarmee naar een polymorf model: berichten worden automatisch aangepast aan het specifieke doelwit, de context en zelfs eerdere interacties. Dat vergroot niet alleen de slagingskans, maar maakt detectie door traditionele filters aanzienlijk complexer.
Lees ook: Malwaredreigingen die in 2026 onder de radar blijven
Van cyberincident naar fysieke schade
AI-systemen worden in toenemende mate geïntegreerd in operationele omgevingen, zoals energiebeheer, logistiek, industriële automatisering en voertuigsystemen. Eind 2025 meldden meerdere organisaties al risicovol gedrag van autonome AI-agenten, waaronder ongeautoriseerde toegang tot systemen en onbedoelde datablootstelling.
Volgens HarfangLab neemt het risico toe nu deze AI-agenten direct processen in de fysieke wereld aansturen. Wanneer dergelijke systemen worden gemanipuleerd, bijvoorbeeld via indirecte promptinjectie of gemanipuleerde data, kan dat leiden tot tastbare verstoringen. Denk aan verkeerd aangestuurde industriële robots, ontregelde transportlijnen of logistieke systemen die vracht verkeerd routeren.
De verdere opkomst van zogenoemde ‘physical AI’, waaronder autonome magazijnsystemen en consumentgerichte robotica, verkleint de afstand tussen digitale instructie en fysieke actie. Daarmee groeit ook de kans dat misbruik van AI niet alleen digitale schade veroorzaakt, maar concrete impact heeft op infrastructuur en bedrijfsprocessen.
Lees ook: Ransomware in retail: waarom 58% toch betaalt
AI in verdediging: van detectie naar assistent
Tegelijkertijd versterkt AI ook de verdedigingskant. Machine learning en deep learning worden al jaren ingezet in detectie-engines om afwijkend gedrag en onbekende dreigingen te identificeren. Wat sinds 2025 zichtbaar is, is een verschuiving naar generatieve AI als actieve assistent van security-analisten.
Door de toename van professionele en geautomatiseerde aanvallen groeit het aantal meldingen dat securityteams moeten beoordelen. AI wordt daarom ingezet om alerts te prioriteren, technische detectieregels te vertalen naar begrijpelijke taal, playbooks te genereren en incident response-taken te automatiseren. Ook binnen threat intelligence ondersteunt AI bij het samenvatten van aanvalscampagnes en het correleren van bronnen, zodat analyses sneller omgezet kunnen worden in concrete acties.
Volgens Hugo Michard, AI Lead bij HarfangLab, is AI daarmee definitief onderdeel van het speelveld. 'AI is aanwezig aan beide kanten: bij aanvallers én bij verdedigers. Dat vraagt niet alleen om technologische innovatie, maar ook om transparantie, duidelijke use cases en naleving van regelgeving zoals de AI Act.'
Lees ook: Bijna helft (44%) van organisaties noemt cybersecurity prioriteit bij video-investeringen