Er is veel reuring over een AI-fenomeen. En deze keer gaat het niet om een chatbot die slim antwoord geeft. Dit gaat om een AI-tool die zélf op je computer klikt, typt, downloadt en inlogt. Dit wordt agentic AI genoemd.
Agentic AI. Wellicht een nieuwe term voor je dus leggen we dat eerst even uit. Simpel gezegd: jij geeft een opdracht, en de AI voert deze zelfstandig uit, als een digitale assistent. Het belangrijkste verschil met gewone AI is dat traditionele AI vooral informatie geeft of advies biedt, terwijl agentic AI zelf acties kan ondernemen en systemen kan bedienen. Daarom is het cruciaal dat je nauwkeurig bepaalt wat de AI wél en niet mag doen.
Nu we dat weten terug naar de reuring waar ik dit artikel mee begon. Afgelopen week demonstreerde Alexander Klöpping zo’n agentic AI-tool (OpenClaw) bij de talkshow van Eva Jinek. Daarin laat hij zien hoe zo’n AI zelfstandig tickets koopt en een restaurantreservering maakt. Dat ziet er indrukwekkend uit, maar iedereen voelt aan dat je hiermee volledig de controle weggeeft. Niet alleen op je privé device erg gevaarlijk, maar als jij of een van je collega’s dit op een zakelijk apparaat doet, kan het ook voelen alsof je de sleutelbos van je bedrijf uit handen geeft.
Een agentic AI is eigenlijk een digitale assistent die niet alleen meedenkt, maar ook uitvoert. Je geeft een opdracht en de tool bedient je computer alsof er een medewerker achter zit:
Please accept marketing-cookies to watch this video. Het veelbesproken item van Alexander Klöpping in het tv-programma Eva.
Om dit mogelijk te maken, krijgt zo’n tool vaak vergaande toegang tot je systeem. Zeker als mensen enthousiast gaan testen, of als er “even snel” een koppeling wordt gemaakt met apps en accounts.
Op zakelijke apparaten kan die toegang gaan over:
En dat is precies waar we je voor willen waarschuwen. Niet omdat de technologie “slecht” is, maar omdat het effect van één fout ineens veel groter wordt.
Als een AI-agent te veel mag, is het risico simpel. Eén verkeerde instelling, één verkeerd commando, of één misbruik, en de schade is direct voelbaar. Denk aan misconfiguraties, ongewenste systeemwijzigingen of acties die je pas later ontdekt.
Een agent werkt met data, en komt overal. Dat betekent ook dat gevoelige informatie kan lekken, zoals klantdata, intellectueel eigendom, wachtwoorden, tokens en andere credentials. Soms door slordig gebruik, soms doordat iemand slim misbruik maakt van de situatie.
In een demo is een ticket kopen grappig, in ieder geval redelijk onschuldig. In de praktijk kan een agent ook aankopen doen, abonnementen afsluiten, data verwijderen of processen verstoren. Een klein foutje kan meteen geld kosten.
Als een agent via een chatvenster of gekoppelde accounts opdrachten kan uitvoeren, ontstaat er een nieuw aanvalsoppervlak. Wordt zo’n account gecompromitteerd, dan kan dat een snelle route worden naar je hele systeem.
Veel van deze tools werken met skills, plugins of vooraf ingestelde “handige acties”. Klinkt onschuldig. Maar precies daar gaat het vaak mis. Je denkt een productiviteitstool toe te voegen, terwijl je in werkelijkheid een achterdeur binnenhaalt.
Dat maakt dit soort agentic AI ook een supply chain risico: de keten van uitbreidingen en koppelingen is vaak minder volwassen dan je zou willen, zeker in een zakelijke omgeving.
Je hoeft niet in paniek te raken. Maar je moet wél bewust zijn.
Dit zijn praktische stappen die we organisaties nu adviseren:
In de uitzending van Eva werd het mooi samengevat. Deze technologie brengt enorme kansen, maar ook nieuwe gevaren. De discussie gaat allang niet meer over of dit de norm wordt. De discussie gaat over hoe je controle houdt, en hoe je voorkomt dat “handig” verandert in “incident”.
Wij denken graag met je mee over je IT-beveiliging, ook op het gebied van AI. Praktisch, no-nonsense, en afgestemd op jouw organisatie.
Neem hieronder contact op met Maurice.
Vul het formulier in en Maurice neemt binnen 24 uur contact met je op. Geen verplichtingen, wel een eerlijk advies.