agentic AI kansen gevaren
Terug naar het overzicht
Artificial Intelligence

 
Een AI die je computer overneemt, handig... tot het misgaat

Meretta Kouria
Geplaatst op 11 februari 2026

Er is veel reuring over een AI-fenomeen. En deze keer gaat het niet om een chatbot die slim antwoord geeft. Dit gaat om een AI-tool die zélf op je computer klikt, typt, downloadt en inlogt. Dit wordt agentic AI genoemd.

Wat is Agentic AI?

Agentic AI. Wellicht een nieuwe term voor je dus leggen we dat eerst even uit. Simpel gezegd: jij geeft een opdracht, en de AI voert deze zelfstandig uit, als een digitale assistent. Het belangrijkste verschil met gewone AI is dat traditionele AI vooral informatie geeft of advies biedt, terwijl agentic AI zelf acties kan ondernemen en systemen kan bedienen. Daarom is het cruciaal dat je nauwkeurig bepaalt wat de AI wél en niet mag doen.

Nu we dat weten terug naar de reuring waar ik dit artikel mee begon. Afgelopen week demonstreerde Alexander Klöpping zo’n agentic AI-tool (OpenClaw) bij de talkshow van Eva Jinek. Daarin laat hij zien hoe zo’n AI zelfstandig tickets koopt en een restaurantreservering maakt. Dat ziet er indrukwekkend uit, maar iedereen voelt aan dat je hiermee volledig de controle weggeeft. Niet alleen op je privé device erg gevaarlijk, maar als jij of een van je collega’s dit op een zakelijk apparaat doet, kan het ook voelen alsof je de sleutelbos van je bedrijf uit handen geeft.

Waarom dit zo aantrekkelijk voelt

Een agentic AI is eigenlijk een digitale assistent die niet alleen meedenkt, maar ook uitvoert. Je geeft een opdracht en de tool bedient je computer alsof er een medewerker achter zit:

  1. muis bewegen en klikken
  2. vensters openen
  3. websites bedienen
  4. formulieren invullen
  5. acties afronden zonder dat jij nog iets hoeft te doen

Het veelbesproken item van Alexander Klöpping in het tv-programma Eva.

Dan komt de vraag die je liever niet overslaat

Om dit mogelijk te maken, krijgt zo’n tool vaak vergaande toegang tot je systeem. Zeker als mensen enthousiast gaan testen, of als er “even snel” een koppeling wordt gemaakt met apps en accounts.

Op zakelijke apparaten kan die toegang gaan over:

  • bestanden en mappen
  • je browser en sessies
  • shell commando’s
  • opgeslagen wachtwoorden en tokens
  • communicatiekanalen, soms zelfs WhatsApp

En dat is precies waar we je voor willen waarschuwen. Niet omdat de technologie “slecht” is, maar omdat het effect van één fout ineens veel groter wordt.

Wat kan er misgaan, sneller dan je denkt

Te veel rechten in één keer

Als een AI-agent te veel mag, is het risico simpel. Eén verkeerde instelling, één verkeerd commando, of één misbruik, en de schade is direct voelbaar. Denk aan misconfiguraties, ongewenste systeemwijzigingen of acties die je pas later ontdekt.

Dataverlies en uitlek van credentials

Een agent werkt met data, en komt overal. Dat betekent ook dat gevoelige informatie kan lekken, zoals klantdata, intellectueel eigendom, wachtwoorden, tokens en andere credentials. Soms door slordig gebruik, soms doordat iemand slim misbruik maakt van de situatie.

Financiële schade door ongewenste acties

In een demo is een ticket kopen grappig, in ieder geval redelijk onschuldig. In de praktijk kan een agent ook aankopen doen, abonnementen afsluiten, data verwijderen of processen verstoren. Een klein foutje kan meteen geld kosten.

Een nieuwe route voor aanvallers

Als een agent via een chatvenster of gekoppelde accounts opdrachten kan uitvoeren, ontstaat er een nieuw aanvalsoppervlak. Wordt zo’n account gecompromitteerd, dan kan dat een snelle route worden naar je hele systeem.

En dan zijn er nog de skills en connectors

Veel van deze tools werken met skills, plugins of vooraf ingestelde “handige acties”. Klinkt onschuldig. Maar precies daar gaat het vaak mis. Je denkt een productiviteitstool toe te voegen, terwijl je in werkelijkheid een achterdeur binnenhaalt.

Dat maakt dit soort agentic AI ook een supply chain risico: de keten van uitbreidingen en koppelingen is vaak minder volwassen dan je zou willen, zeker in een zakelijke omgeving.

Wat je vandaag al kunt doen

Je hoeft niet in paniek te raken. Maar je moet wél bewust zijn.

Dit zijn praktische stappen die we organisaties nu adviseren:

  1. Test dit soort tools niet op zakelijke apparaten
    Geen bedrijfsaccounts, geen productiedata, geen uitzonderingen.
  2. Gebruik een geïsoleerde testomgeving
    Denk aan een aparte virtuele machine of sandbox die losstaat van je netwerk.
  3. Zet beleid neer, voordat het “gewoon gebeurt”
    Wie mag dit gebruiken, met welke rechten, en waarvoor wel of niet?
  4. Beperk en blokkeer ongewenste AI-tools
    Stel vast welke AI-tools binnen het bedrijf zijn toegestaan en blokkeer de rest, zodat risicovolle software geen toegang heeft tot bedrijfsdata.
  5. Maak monitoring en logging onderdeel van de basis
    Je wil kunnen zien wat er gebeurt, en achteraf kunnen terugzoeken.
  6. Train je team, kort en concreet
    Dit is geen chatbot. Dit is systeemtoegang in een nieuw jasje.

Dit wordt mainstream, de vraag is of jij klaar bent

In de uitzending van Eva werd het mooi samengevat. Deze technologie brengt enorme kansen, maar ook nieuwe gevaren. De discussie gaat allang niet meer over of dit de norm wordt. De discussie gaat over hoe je controle houdt, en hoe je voorkomt dat “handig” verandert in “incident”.

Wil je dit goed regelen, zonder gedoe?

Wij denken graag met je mee over je IT-beveiliging, ook op het gebied van AI. Praktisch, no-nonsense, en afgestemd op jouw organisatie.

Neem hieronder contact op met Maurice.

Meer weten?

Vul het formulier in en Maurice neemt binnen 24 uur contact met je op. Geen verplichtingen, wel een eerlijk advies.

Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Wil je liever direct antwoord?

Bel of app Maurice:
logo business central 2026 nieuw
Donderdag 16 april: Strategische Lunchsessie Business Central
Schrijf je gratis in