Module 3 van 6
Menselijk toezicht en besluitvorming
De EU AI Act draait niet om het verbieden van AI. Het draait om ervoor zorgen dat er altijd een mens is die de controle heeft. Artikel 14 van de wet schrijft voor dat hoog-risico AI-systemen zo moeten worden ingezet dat er effectief menselijk toezicht is. Maar wat betekent dat in de dagelijkse praktijk van een uitzendbureau?
Wat de wet zegt
Artikel 14 eist dat hoog-risico AI-systemen zodanig worden ontworpen en ingezet dat er menselijk toezicht mogelijk is gedurende de hele periode dat het systeem in gebruik is. Concreet betekent dit drie dingen:
1. Een mens moet de output kunnen begrijpen
De persoon die toezicht houdt, moet kunnen begrijpen wat het systeem doet en waarom. Als je ATS een kandidaat op plek 1 zet, moet de recruiter kunnen achterhalen waarom.
2. Een mens moet kunnen ingrijpen
Er moet altijd de mogelijkheid zijn om een AI-beslissing te overrulen. Als het systeem een kandidaat afwijst, moet een recruiter die beslissing ongedaan kunnen maken.
3. Een mens moet kunnen stoppen
Als het systeem structureel onjuiste of oneerlijke beslissingen neemt, moet iemand het systeem kunnen uitschakelen of de werking ervan kunnen aanpassen.
Adviserend vs. autonoom — het cruciale verschil
Het verschil tussen een systeem dat adviseert en een systeem dat autonoom beslist is cruciaal onder de EU AI Act.
Adviserend
Het systeem geeft een suggestie, ranking of score. Een recruiter bekijkt de output en neemt zelf de beslissing. De mens heeft het laatste woord.
Voorbeeld: je ATS toont een gerankte lijst, maar de recruiter bekijkt alle cv's en kiest zelf wie wordt uitgenodigd.
Autonoom
Het systeem neemt zelfstandig een beslissing zonder dat een mens meekijkt. Kandidaten worden automatisch afgewezen, weggefilterd of onzichtbaar gemaakt.
Voorbeeld: je ATS wijst cv's automatisch af die niet aan bepaalde criteria voldoen. De recruiter ziet deze kandidaten nooit.
Een adviserend systeem is niet per definitie compliant — je moet nog steeds voldoen aan alle hoog-risico verplichtingen. Maar een systeem dat autonoom beslist zonder menselijke tussenkomst is een direct compliancerisico.
Praktijksituaties in de uitzendbranche
Situatie 1: automatisch filteren van cv's
Je ATS filtert cv's op basis van keywords. Kandidaten zonder bepaalde termen worden automatisch uit de lijst verwijderd.
Situatie 2: automatische matching
Je matchingtool koppelt kandidaten aan vacatures. De recruiter ziet alleen de top-5 matches en werkt daar mee verder.
Situatie 3: chatbot als eerste screening
Een chatbot stelt kandidaten vragen en beoordeelt of ze doorgaan naar de volgende ronde. Kandidaten die niet door de chatbot komen, worden niet doorgestuurd naar een recruiter.
Hoe je menselijk toezicht organiseert
Menselijk toezicht is niet iets dat vanzelf ontstaat. Je moet het organiseren. Dat betekent concreet:
Automation bias — de onzichtbare valkuil
Er is een psychologisch fenomeen dat "automation bias" heet: de neiging om de output van een systeem klakkeloos te vertrouwen omdat het van een computer komt. Als je ATS zegt dat een kandidaat een score van 92% heeft, is de neiging groot om dat als waarheid aan te nemen.
De EU AI Act erkent dit risico expliciet. Effectief menselijk toezicht betekent niet alleen dat een mens er technisch naar kan kijken — het betekent dat die mens ook daadwerkelijk kritisch is. Dat vergt training, bewustzijn en een cultuur waarin het normaal is om een AI-systeem te corrigeren.
Samenvatting
Artikel 14 vereist dat er altijd een mens is die de output van een hoog-risico AI-systeem kan begrijpen, beoordelen en overrulen.
Het verschil tussen adviserend en autonoom is cruciaal. Een systeem dat kandidaten automatisch afwijst zonder menselijke tussenkomst is een direct compliancerisico.
Menselijk toezicht moet je organiseren: wijs iemand aan, geef bevoegdheid, zorg voor kennis, en documenteer de procedure. Wees je bewust van automation bias — de neiging om AI-output klakkeloos te vertrouwen.