CyberArk Labs laat ChatGPT zelf kwaadaardige code muteren en security-tools omzeilen

Redactie WINMAG Pro

Onderzoekers van CyberArk Labs hebben ChatGPT zelf kwaadaardige code laten schrijven en automatisch laten muteren om zo security-tools te kunnen omzeilen

Het werd deze maand al bekend dat ChatGPT ingezet kon worden om code als onderdeel van malware te schrijven, maar CyberArk Labs gaat nog een stuk verder door ChatGPT zelf de malware te laten maken, die bovendien niet door security-tools wordt opgemerkt.

CyberArk Labs laat ten eerste zien hoe ze het contentfilter van de AI-dienst hebben omzeild en tegen de eigen regels in toch malware kunnen maken die, in runtime queries, ChatGPT kwaadaardige code laat laden. De malware bevat hierdoor zelf geen kwaadaardige code, omdat het de code van ChatGPT ontvangt. Bovendien wordt deze gevalideerd (controleren of de code correct is), en vervolgens uitgevoerd zonder een spoor achter te laten. Daarnaast is het CyberArk Labs gelukt om ChatGPT te vragen de code te muteren.

De zogeheten ‘naked malware’ of polyforme malware, die hiermee ontstaat bevat geen kwaadaardige modules en wordt daardoor niet door security-tools opgemerkt. Dit is in eerdere onderzoeken nog niet gelukt. 

Eran Shimony, onderzoeker bij CyberArk Labs: “Polymorfe malware is zeer moeilijk aan te pakken voor beveiligingsproducten omdat je ze niet echt kunt herkennen. Bovendien laten ze meestal geen sporen achter op het bestandssysteem, omdat hun kwaadaardige code alleen in het geheugen wordt verwerkt. Bovendien, als men het uitvoerbare bestand zelf bekijkt, ziet het er waarschijnlijk onschuldig uit.”

Een uitgebreid verslag van het onderzoek is hier te vinden.

 

 

 

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie