By Yuri Bobbert and Kevin Zwaan, March 26, 2026
AI gedrag sturen via gewone, alledaagse taal.
Grote taalmodellen (LLM’s) zorgen voor een transformatie van verschillende sectoren, maar de specifieke risico’s die ze met zich meebrengen vragen om een nieuwe aanpak op het gebied van beveiliging en governance. Een baanbrekend artikel, geschreven door Anove-medeoprichter prof. dr. Yuri Bobbert en ethisch hacker Kevin Zwaan van Q-Cyber, laat zien hoe traditionele beveiligingsmaatregelen tekortschieten wanneer het gedrag van AI kan worden gestuurd via gewone, alledaagse taal.
LLM in korte tijd laten radicaliseren
Een recente demonstratie toonde aan hoe een LLM in acht uur tijd kon worden ‘geradicaliseerd’, waarbij veiligheidsbarrières werden omzeild om op grote schaal malware te genereren. Dit was geen zeer technische, in code geschreven software-exploit; het werd bereikt door middel van manipulatie en overreding, waarbij gebruik werd gemaakt van het contextuele leerproces van het model om het zijn beveiligingsprotocollen te laten vergeten, wat een kritieke lacune in AI-beveiliging blootlegde.
Het aanvalsoppervlak van AI breder is dan alleen code
Het artikel benadrukt dat het aanvalsoppervlak van AI breder is dan alleen code. Het omvat het model, prompts, gebruikersinterfaces, beleid en zelfs de organisatorische context. Wanneer LLM’s worden geïntegreerd in workflows met toegang tot tools, API’s en gevoelige gegevens, vermenigvuldigen de risico’s zich, variërend van het genereren van kwaadaardige inhoud tot het mogelijk maken van grootschalige cyberaanvallen. AI-systemen zijn dynamisch en bestaan uit onderling verbonden componenten die zich snel ontwikkelen. Als gevolg daarvan kan traditioneel beheer geen gelijke tred houden. Statische checklists en eenmalige audits zijn niet voldoende (als ze dat ooit al waren). AI-beheer moet continu, geautomatiseerd en op bewijs gebaseerd zijn.
Volledige artikel
Lees het volledige artikel hier om dieper in te gaan op hoe u de risico’s van AI-implementatie in uw bedrijf kunt beheersen en hoe Anove’s AI Management System en Q-Cyber verantwoorde AI op schaal mogelijk maken. Zoals de auteurs samenvatten: “hoe sneller innovatie gaat, hoe meer governance geautomatiseerd en operationeel moet worden – anders wordt het theater”.