Posted on Leave a comment

TNO slaat alarm om ai-dreiging in cybersecurity




Synthetic intelligence (ai) heeft de potentie om binnen vijf jaar het cybersecuritylandschap op zijn kop te zetten. Als cyberbeveiligers niet snel stappen zetten, is de kans groot dat de digitale infrastructuur tussen nu en 2028 onvoldoende valt te beschermen.

Dit blijkt uit de toekomstvisie die TNO samen met ABN Amro, Achmea, ASML, Belastingdienst en ING heeft opgesteld. Hieraan gekoppeld was de ontwikkeling van een ai-raamwerk dat beveiligingsexperts helpt hun taken beter te verrichten, 

In het venture PurpleAI bekijken de onderzoekers van het Partnership for Cyber Safety Innovation (PCSI) hoe ontwrichtend ai kan werken. Ze bereiden zich voor op een tijdperk waarin zowel de aanvallers als verdedigers ai toepassen.

Crimson en blue groups

“Is het mogelijk een systeem te ontwikkelen dat een it-omgeving simuleert waarin machine studying zowel purple groups als blue groups helpt zich continu te verbeteren?”

Centraal stond de vraag of het mogelijk is een systeem te ontwikkelen dat een it-omgeving simuleert waarin machine studying zowel de zogenaamde purple groups als de blue groups helpt zich continu te verbeteren. Crimson groups, zoals pentesters en ethische hackers, zoeken naar kwetsbaarheden in de infrastructuur die ze moeten beschermen. Ze kruipen als het ware in de huid van aanvallers die gebruik maken van (generatieve) ai. Door deze tegenstanders voor te zijn kunnen ze gevaren afwenden.

De blue groups (soc’s, incident responders en risk intelligence groups) kunnen overgaan tot het gebruik van ai om hun verdediging te automatiseren. Helemaal mooi zou zijn als ai-software een flink deel van hun werk kan overnemen en zelfstandig te werk kan gaan. Het samenspel tussen beide groups wordt ‘purple teaming’ genoemd.

Leermodel

In het venture PurpleAI ontwikkelden TNO en zijn companions een raamwerk voor een systeem waarin machine studying de prestaties van beide groups continu verbetert. Dit raamwerk bestaat uit twee componenten: een reinforcement learning-model en een simulator. Het leermodel leert welke volgorde van acties het beste kan worden genomen. De simulator imiteert het gedrag van een digitale omgeving, bijvoorbeeld een Home windows-desktop. 

De onderzoekers kwamen tot de eerste implementatie van een proof of idea. Experimenten bewezen dat het mannequin de juiste stappen kan leren zetten als het gaat om ‘privilege escalation’ in een vereenvoudigde setting. De onderzoekers zien meerdere kansen voor toepassing en verdere uitbreidingen van het raamwerk. De volgende stap is deze technologie in een echte omgeving in de praktijk te brengen. Zo ver is PurpleAI nog niet gekomen.

Drie disciplines

De onderzoekers roepen de cybersecurity-industrie op om zich nu voor te bereiden op een tijdperk van kwaadaardig gebruik van ai voor cyberaanvallen. Ter voorbereiding daarop moeten we in drie verschillende disciplines ontwikkelen. Ten eerste moeten we defensieve ai- en ml-systemen adopteren en de vereiste vaardigheden en processen ontwikkelen om ze effectief te gebruiken. Daarnaast moeten purple groups ai inzetten om de infrastructuur-stresstests te laten ondergaan tegen realistische, op ai gebaseerde aanvallen. Ten slotte is verder onderzoek nodig naar de beste verdediging met ai tegen op ai gebaseerde aanvallen.

Leave a Reply

Your email address will not be published. Required fields are marked *