Cybersecurity in het AI-tijdperk: Hoe het bedreigingslandschap in 2023 is geëvolueerd

Redactie WINMAG Pro

Kaspersky onthult in een nieuw rapport de diepgaande invloed van AI op het cybersecuritylandschap in 2023. De analyse verkent de implicaties van AI, waarbij de nadruk ligt op het gebruik door regelgevers en partijen die zich verdedigen tegen cybercriminelen. Afzonderlijk wordt gekeken naar de potentiële exploitatie van AI door cybercriminelen. Dit uitgebreide onderzoek - onderdeel van Kaspersky Security Bulletin (KSB) - is een jaarlijkse compilatie van voorspellingen en rapporten die belangrijke verschuivingen op het dynamische gebied van cybersecurity belichten.

Te midden van de snelle technologische vooruitgang en maatschappelijke verschuivingen heeft de term ’AI’ zich stevig gepositioneerd. Met de toenemende verspreiding van grote taalmodellen (LLM's) is er door de toename van beveiligings- en privacyzorgen een direct verband tussen AI en cybersecurity. Het rapport laat zien hoe AI-tools cybercriminelen hebben geholpen bij hun kwaadaardige activiteiten in 2023, terwijl het ook de potentiële defensieve toepassingen van deze technologie laat zien. Daarnaast wordt ook een blik geworpen op het ontwikkelende landschap van AI-gerelateerde bedreigingen, die in de toekomst zouden kunnen bestaan uit:

Complexere kwetsbaarheden

Naarmate instructie-volgende LLM's in meer consumentenproducten worden geïntegreerd, zullen er nieuwe complexe kwetsbaarheden ontstaan op het snijvlak van probabilistische generatieve AI en traditionele deterministische technologieën. Hierdoor zal het aanvalsoppervlak dat cybersecurityprofessionals moeten beveiligen groter worden. Ontwikkelaars zullen vervolges nieuwe beveiligingsmaatregelen moeten bestuderen, zoals goedkeuring van de gebruiker voor acties die worden geïnitieerd door LLM-agenten.

Een uitgebreide AI-assistent voor cybersecurityspecialisten

Red teamers en onderzoekers maken gebruik van generatieve AI voor innovatieve cybersecuritytools, wat mogelijk leidt tot een assistent die gebruikmaakt van LLM of machine learning (ML). Deze tool zou red teaming-taken kunnen automatiseren en begeleiding kunnen bieden op basis van uitgevoerde opdrachten in een pentesting-omgeving.

Neurale netwerken zullen steeds vaker worden gebruikt om visuals voor scams te genereren

In het komende jaar kunnen scammers hun tactieken uitbreiden door gebruik te maken van neurale netwerken en AI-tools om overtuigendere frauduleuze content te creëren. Doordat het mogelijk wordt om moeiteloos geloofwaardige afbeeldingen en video’s te genereren, vormen kwaadwillende actoren een verhoogd risico op escalatie van cyberbedreigingen met betrekking tot fraude en oplichting.

AI zal geen drijvende kracht worden voor baanbrekende veranderingen in het dreigingslandschap in 2024

Ondanks de bovenstaande trends blijven Kaspersky-experts sceptisch over het feit dat AI het dreigingslandschap op korte termijn ingrijpend zal veranderen. Terwijl cybercriminelen generatieve AI toepassen, geldt hetzelfde voor partijen die zich verdedigen tegen deze criminelen. Zij zullen dezelfde of zelfs geavanceerdere tools gebruiken om de beveiliging van software en netwerken te testen, waardoor het onwaarschijnlijk is dat het aanvalslandschap drastisch zal veranderen.

Meer AI-gerelateerde regelgevingsinitiatieven, met bijdrage van de private sector

Naarmate de snelgroeiende technologie zich verder ontwikkelt, is het ook een kwestie van beleid en regelgeving geworden. Het aantal AI-gerelateerde regelgevende initiatieven zal toenemen. Niet-overheidspartijen, zoals technologiebedrijven, kunnen gezien hun expertise in het ontwikkelen en gebruiken van kunstmatige intelligentie waardevolle inzichten leveren voor discussies over AI-regulering op zowel mondiale als nationale platformen.

Watermerk voor AI-gegenereerde inhoud

Er zal meer regelgeving en beleid van dienstverleners nodig zijn om synthetische content (content gemaakt op basis van AI) te markeren of te identificeren. Ontwikkelaars en onderzoekers zullen op hun beurt bijdragen aan methoden om synthetische media van een watermerk te voorzien, zodat ze gemakkelijker geïdentificeerd en bewezen kunnen worden.

"Kunstmatige intelligentie in cybersecurity is een tweesnijdend zwaard. Het adaptieve vermogen versterkt onze verdediging en biedt een proactief schild tegen ontwikkelende bedreigingen. Dezelfde dynamiek brengt echter ook risico's met zich mee, omdat aanvallers AI gebruiken om geavanceerdere aanvallen uit te voeren. Het juiste evenwicht vinden, zorgen voor verantwoord gebruik zonder gevoelige gegevens te veel te delen, is van het grootste belang bij het beveiligen van onze digitale grenzen," zegt Vladislav Tushkanov, security-expert bij Kaspersky.

Ga voor meer informatie over AI in cyberbeveiliging naar Securelist.com.

Dit rapport is onderdeel van Kaspersky Security Bulletin (KSB) - een jaarlijkse serie voorspellingen en analytische rapporten over belangrijke verschuivingen binnen de cyberbeveiligingswereld. Meer informatie over andere KSB-stukken vind je hier.

 

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie