Normelo

Module 3 van 6

Menselijk toezicht en besluitvorming

De EU AI Act draait niet om het verbieden van AI. Het draait om ervoor zorgen dat er altijd een mens is die de controle heeft. Artikel 14 van de wet schrijft voor dat hoog-risico AI-systemen zo moeten worden ingezet dat er effectief menselijk toezicht is. Maar wat betekent dat in de dagelijkse praktijk van een uitzendbureau?

Wat de wet zegt

Artikel 14 eist dat hoog-risico AI-systemen zodanig worden ontworpen en ingezet dat er menselijk toezicht mogelijk is gedurende de hele periode dat het systeem in gebruik is. Concreet betekent dit drie dingen:

1. Een mens moet de output kunnen begrijpen

De persoon die toezicht houdt, moet kunnen begrijpen wat het systeem doet en waarom. Als je ATS een kandidaat op plek 1 zet, moet de recruiter kunnen achterhalen waarom.

2. Een mens moet kunnen ingrijpen

Er moet altijd de mogelijkheid zijn om een AI-beslissing te overrulen. Als het systeem een kandidaat afwijst, moet een recruiter die beslissing ongedaan kunnen maken.

3. Een mens moet kunnen stoppen

Als het systeem structureel onjuiste of oneerlijke beslissingen neemt, moet iemand het systeem kunnen uitschakelen of de werking ervan kunnen aanpassen.

Adviserend vs. autonoom — het cruciale verschil

Het verschil tussen een systeem dat adviseert en een systeem dat autonoom beslist is cruciaal onder de EU AI Act.

Adviserend

Het systeem geeft een suggestie, ranking of score. Een recruiter bekijkt de output en neemt zelf de beslissing. De mens heeft het laatste woord.

Voorbeeld: je ATS toont een gerankte lijst, maar de recruiter bekijkt alle cv's en kiest zelf wie wordt uitgenodigd.

Autonoom

Het systeem neemt zelfstandig een beslissing zonder dat een mens meekijkt. Kandidaten worden automatisch afgewezen, weggefilterd of onzichtbaar gemaakt.

Voorbeeld: je ATS wijst cv's automatisch af die niet aan bepaalde criteria voldoen. De recruiter ziet deze kandidaten nooit.

Een adviserend systeem is niet per definitie compliant — je moet nog steeds voldoen aan alle hoog-risico verplichtingen. Maar een systeem dat autonoom beslist zonder menselijke tussenkomst is een direct compliancerisico.

Praktijksituaties in de uitzendbranche

Situatie 1: automatisch filteren van cv's

Je ATS filtert cv's op basis van keywords. Kandidaten zonder bepaalde termen worden automatisch uit de lijst verwijderd.

Probleem: de recruiter ziet deze kandidaten nooit. Er is geen menselijk toezicht op de filterbeslissing. Een geschikte kandidaat die andere woorden gebruikt voor dezelfde vaardigheden wordt onzichtbaar.
Oplossing: configureer het systeem zodat gefilterde kandidaten zichtbaar blijven in een aparte lijst. Laat de recruiter periodiek door de gefilterde kandidaten kijken.

Situatie 2: automatische matching

Je matchingtool koppelt kandidaten aan vacatures. De recruiter ziet alleen de top-5 matches en werkt daar mee verder.

Aandachtspunt: als de recruiter altijd alleen de top-5 bekijkt, worden kandidaten lager in de lijst structureel genegeerd. In de praktijk functioneert dit als een autonome beslissing.
Oplossing: spreek af dat recruiters niet alleen de top-matches bekijken maar ook steekproefsgewijs kandidaten lager in de lijst beoordelen. Documenteer dit als procedure.

Situatie 3: chatbot als eerste screening

Een chatbot stelt kandidaten vragen en beoordeelt of ze doorgaan naar de volgende ronde. Kandidaten die niet door de chatbot komen, worden niet doorgestuurd naar een recruiter.

Probleem: de chatbot neemt een selectiebeslissing die directe gevolgen heeft voor de kandidaat. Als er geen mens meekijkt bij afwijzingen, is er geen menselijk toezicht.
Oplossing: laat een recruiter wekelijks de chatbot- afwijzingen controleren. Of configureer de chatbot zodat twijfelgevallen altijd worden doorgestuurd naar een mens.

Hoe je menselijk toezicht organiseert

Menselijk toezicht is niet iets dat vanzelf ontstaat. Je moet het organiseren. Dat betekent concreet:

Wijs per systeem iemand aan die verantwoordelijk is voor het beoordelen van de AI-output. Dit hoeft niet de directeur te zijn — het kan een senior recruiter zijn die het systeem goed kent.
Geef die persoon de bevoegdheid om beslissingen te overrulen. Een recruiter die ziet dat het systeem een fout maakt maar het niet mag aanpassen, is geen effectief toezicht.
Zorg voor kennis — de persoon moet begrijpen hoe het systeem werkt, welke criteria het hanteert, en waar het kan falen. Zonder die kennis is toezicht een formaliteit.
Documenteer de procedure — leg vast wie er toezicht houdt, hoe vaak de output wordt beoordeeld, en hoe wordt gehandeld als er iets misgaat. Dit is het bewijs dat je toezicht serieus neemt.

Automation bias — de onzichtbare valkuil

Er is een psychologisch fenomeen dat "automation bias" heet: de neiging om de output van een systeem klakkeloos te vertrouwen omdat het van een computer komt. Als je ATS zegt dat een kandidaat een score van 92% heeft, is de neiging groot om dat als waarheid aan te nemen.

De EU AI Act erkent dit risico expliciet. Effectief menselijk toezicht betekent niet alleen dat een mens er technisch naar kan kijken — het betekent dat die mens ook daadwerkelijk kritisch is. Dat vergt training, bewustzijn en een cultuur waarin het normaal is om een AI-systeem te corrigeren.

Samenvatting

Artikel 14 vereist dat er altijd een mens is die de output van een hoog-risico AI-systeem kan begrijpen, beoordelen en overrulen.

Het verschil tussen adviserend en autonoom is cruciaal. Een systeem dat kandidaten automatisch afwijst zonder menselijke tussenkomst is een direct compliancerisico.

Menselijk toezicht moet je organiseren: wijs iemand aan, geef bevoegdheid, zorg voor kennis, en documenteer de procedure. Wees je bewust van automation bias — de neiging om AI-output klakkeloos te vertrouwen.