Agentic AI wordt vaak verkocht als de ultieme productiviteitsboost: systemen die zelfstandig werken, nooit pauze nemen en dag en nacht doorgaan. Maar in de praktijk zie je soms teams die harder werken dan voorheen. De vraag is daarbij niet of agentic AI kan werken. De vraag is wanneer het daadwerkelijk productiviteit oplevert en wanneer het vooral nieuwe complexiteit introduceert.
- Autonome AI agents klinken productief
- Wanneer is AI écht agentic?
- Waarom autonomie zonder ontwerp werk verschuift in plaats van wegneemt
- Autonome AI in risicovolle sectoren
- Productiviteit van AI agents meet je niet na livegang
- Waarom succesvolle AI agents bewust ‘saai’ zijn ontworpen
- Agentic AI werkt alleen als mens en systeem samenwerken
- Veelgestelde vragen
Autonome AI agents klinken productief
In veel engineering- en productteams zie ik enthousiasme over agents. Minder handmatig werk, meer schaalbaarheid, snellere afhandeling van taken zoals monitoring, triage en dataverwerking. Dat enthousiasme is terecht.
Tegelijk zie ik dat autonomie vaak als label wordt gebruikt, niet als eigenschap. Teams verwachten dat werk verdwijnt, terwijl het in werkelijkheid verschuift. Taken worden niet weggenomen, maar veranderen in controle, correctie en exceptionhandling.
Dat is geen falen van de technologie. Het is een ontwerpfout. Autonomie zonder duidelijke begrenzing vergroot de cognitieve last voor het team en ondermijnt het beoogde productiviteitsvoordeel.
Wanneer is AI écht agentic?
Niet elke AI die taken automatiseert, is een agent. Veel oplossingen die vandaag als “autonoom” worden gepresenteerd, zijn in feite workflow-automatisering met een taalmodel ervoor. Dat is nuttig, maar fundamenteel iets anders.
Voor mij wordt AI pas echt agentic als een systeem:
- werkt vanuit een doel, niet alleen een instructie
- zelfstandig beslissingen neemt binnen vooraf gedefinieerde grenzen
- acties uitvoert over meerdere stappen en systemen heen
Op dat moment verandert niet alleen je softwarearchitectuur, maar ook de rol van je team. Agentic AI is geen senior collega. Het gedraagt zich eerder als een extreem snelle junior: capabel, maar alleen effectief binnen duidelijke kaders.
Waarom autonomie zonder ontwerp werk verschuift in plaats van wegneemt
Zodra agents meer vrijheid krijgen, zonder dat helder is wat hun grenzen zijn, verschuift werk onvermijdelijk naar mensen. Niet als uitvoering, maar als toezicht.
Teams besteden meer tijd aan:
- het herstellen van onverwachte outputs
- het afhandelen van uitzonderingen
- het verklaren van beslissingen die de agent zelf niet kan uitleggen
Autonomie voelt dan als vooruitgang, maar is in werkelijkheid extra complexiteit. Zonder scherp ontwerp wordt agentic AI geen versneller, maar meer ruis.
Autonome AI in risicovolle sectoren
In sectoren zoals verzekeringen, accountancy, legal en finance is een fout zelden onschuldig. Een verkeerd geïnterpreteerde polis, een onjuiste samenvatting van een juridisch document of een foutieve boeking kan directe financiële of juridische gevolgen hebben.
Dat maakt agentic AI hier fundamenteel anders dan in consumentenproducten of interne tooling. Autonomie betekent niet alleen snelheid, maar verantwoordelijkheid op schaal. Een kleine ontwerpfout herhaalt zich niet één keer, maar structureel.
Juist in deze domeinen is “het lijkt te werken” onvoldoende. Een agent moet niet alleen efficiënt zijn, maar ook uitlegbaar, voorspelbaar en controleerbaar.
Autonomie betekent niet dat verantwoordelijkheid verdwijnt. Ze verschuift — naar ontwerp, governance en observability. Zeker in gereguleerde en kennisintensieve sectoren geldt: als je achteraf niet kunt uitleggen waarom een agent iets deed, was hij te autonoom ontworpen.
Human-in-the-loop blijft essentieel. Niet om elk besluit handmatig te controleren, maar om gedrag te kunnen begrijpen, bijsturen en corrigeren. Blind vertrouwen in AI is geen volwassen architectuurkeuze.
Productiviteit van AI agents meet je niet na livegang
De belangrijkste vraag is daarom niet of een agent iets kan, maar of hij netto waarde toevoegt. Een agent die veel taken uitvoert maar voortdurend menselijk toezicht nodig heeft, is zelden productief.
Echte productiviteitswinst ontstaat alleen als vooraf expliciet is vastgelegd:
- welke handelingen moeten verdwijnen
- welke doorlooptijden aantoonbaar korter moeten worden
- welke fouten en uitzonderingen acceptabel zijn
Zonder die scherpte optimaliseer je achteraf, en verklaar je teleurstelling met “de technologie is nog niet volwassen”. In werkelijkheid was het experiment dat niet. Dit vraagt ook andere vaardigheden van teams. Minder uitvoeren, meer ontwerpen. Minder handwerk, meer interpretatie. Omdat de autonomie van een agent nog altijd menselijke regie nodig heeft.
Waarom succesvolle AI agents bewust ‘saai’ zijn ontworpen
De beste agentic AI-oplossingen die ik zie, hebben weinig gemeen met maximale autonomie. Ze zijn juist strak ontworpen:
- één helder doel
- een beperkte, expliciete scope
- duidelijke momenten waarop een mens ingrijpt
Waar agents falen, zie je vrijwel altijd hetzelfde patroon: te breed ingezet, te veel vrijheid, te weinig expliciete stop- en controlepunten. Dat voelt innovatief, maar is zelden schaalbaar. Saai ontwerp is geen beperking. In sectoren waar fouten directe gevolgen hebben voor klanten, compliance of financiële uitkomsten, is het een randvoorwaarde voor vertrouwen.
Agentic AI werkt alleen als mens en systeem samenwerken
Agentic AI kan een zeer productieve collega zijn. Maar alleen als je hem behandelt als onderdeel van je teamontwerp, niet als magische oplossing. De echte winst zit niet in zo autonoom mogelijk, maar in doordachte samenwerking tussen mens en systeem. AI doet wat logisch te automatiseren is. Mensen sturen, beoordelen en corrigeren waar dat nodig blijft.
Dat vraagt meer ontwerpdiscipline van R&D teams. En precies daar ligt, wat mij betreft, de rol van een CTO vandaag.
Veelgestelde vragen
Automatisering volgt vaste regels en scripts. Agentic AI werkt vanuit doelen, neemt zelfstandig beslissingen binnen kaders en voert acties uit over meerdere stappen en systemen heen. Dat maakt het krachtiger, maar ook risicovoller als het slecht is ontworpen.
Alleen als vooraf duidelijk is welke handelingen moeten verdwijnen, welke doorlooptijden korter worden en welke fouten acceptabel zijn. Zonder deze meetbare criteria verschuift werk vaak van uitvoeren naar controleren.
Omdat autonomie te breed wordt ingezet. Als agents onverwachte outputs produceren of onvoldoende begrensd zijn, ontstaat extra werk in de vorm van toezicht, correctie en exception handling. Dat is meestal een ontwerpfout, geen technisch probleem.
In deze sectoren zijn fouten zelden onschuldig. Een verkeerde beslissing of interpretatie kan directe financiële of juridische gevolgen hebben. Autonome AI agents schalen niet alleen snelheid, maar ook fouten, waardoor uitlegbaarheid en controle essentieel zijn.
Nee. De rol van mensen verschuift. Minder uitvoeren, meer ontwerpen, toezicht houden en interpreteren. Succesvolle teams gebruiken agentic AI als krachtvermenigvuldiger, niet als vervanging van menselijk oordeel.