Normelo

De meest geraakt sector

EU AI Act & de Uitzendbranche

Uitzendbureaus gebruiken dagelijks AI-systemen voor het vinden, selecteren en matchen van kandidaten. Veel van deze systemen vallen onder de hoog-risico categorie van de EU AI Act. En dan is er nog shadow AI — medewerkers die zelfstandig AI-tools inzetten buiten het zicht van de organisatie.

Waarom raakt dit de uitzendbranche zo direct?

De EU AI Act bestempelt AI-systemen die worden ingezet voor werving en selectie expliciet als hoog-risico. Dit staat in Bijlage III van de verordening, onder categorie 4: “Werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid.”

Voor de uitzendbranche is dit bijzonder relevant. Het kernproces van een uitzendbureau — kandidaten vinden, beoordelen en koppelen aan opdrachtgevers — draait steeds vaker op AI-gestuurde systemen. En precies die systemen vallen nu onder de strengste categorie van de wet.

Het maakt daarbij niet uit of je het systeem zelf hebt ontwikkeld. Als je een ATS of matchingtool van een leverancier gebruikt, ben je als uitzendbureau een “deployer” in de zin van de wet — en daarmee heb je eigen wettelijke verplichtingen.

Welke systemen vallen hieronder?

De volgende typen systemen die in de uitzendbranche gangbaar zijn, kwalificeren waarschijnlijk als hoog-risico AI:

ATS-systemen (Applicant Tracking Systems)

Een ATS dat sollicitaties ontvangt en organiseert is op zichzelf geen hoog-risico AI. Maar zodra het systeem kandidaten automatisch rankt, filtert of prioriteert op basis van hun profiel, wordt het een AI-systeem dat beslissingen beïnvloedt over toegang tot werk. En dat is precies wat de EU AI Act als hoog-risico classificeert.

In de praktijk hebben de meeste moderne ATS-systemen deze functionaliteit ingebouwd. Denk aan automatisch scoren van cv's, “best match”-lijsten, of AI-gestuurde aanbevelingen over welke kandidaat het beste past bij een vacature.

CV-screening en parsingsoftware

Software die cv's automatisch uitleest, structureert en beoordeelt is een kernonderdeel van veel uitzendprocessen. Wanneer deze software niet alleen data extraheert maar ook een waardeoordeel geeft — bijvoorbeeld door kandidaten te scoren of te categoriseren — valt het onder de hoog-risico definitie.

Het onderscheid is subtiel maar belangrijk: een parser die namen en werkervaring uit een cv haalt is geen hoog-risico AI. Een parser die vervolgens bepaalt dat kandidaat A “beter” is dan kandidaat B, wél.

Matchingtools en AI-gestuurde aanbevelingen

Matchingsoftware die kandidaten automatisch koppelt aan vacatures of opdrachtgevers op basis van profielen, vaardigheden en voorkeuren is een van de meest gebruikte AI-toepassingen in de uitzendbranche. Deze systemen maken beslissingen die direct invloed hebben op iemands toegang tot werk.

De EU AI Act is hier expliciet over: AI-systemen die worden ingezet om “natuurlijke personen te werven of te selecteren, met name om gerichte vacaturemededelingen te plaatsen, sollicitaties te analyseren of te filteren, en kandidaten te beoordelen” zijn hoog-risico.

Chatbots en geautomatiseerde interviews

Steeds meer uitzendbureaus zetten chatbots of geautomatiseerde interviewtools in voor de eerste screening van kandidaten. Wanneer de output van zo'n systeem wordt gebruikt om kandidaten te selecteren of af te wijzen, valt het onder de hoog-risico categorie. Een chatbot die alleen administratieve vragen beantwoordt (“hoe laat is mijn gesprek?”) valt hier niet onder.

Het onzichtbare risico: shadow AI

De bovenstaande systemen zijn de officiële tools die een uitzendbureau inkoopt en beheert. Maar er is een groeiend probleem dat de meeste organisaties over het hoofd zien: medewerkers die zelfstandig AI-tools inzetten, buiten het zicht van IT en compliance. Dit wordt shadow AI genoemd.

Uit onderzoek blijkt dat 50% van de werknemers ongeautoriseerde AI-tools gebruikt op het werk. In de uitzendbranche ziet dat er concreet zo uit: een recruiter die ChatGPT of Claude gebruikt om cv's samen te vatten of te vergelijken. Een vestigingsmanager die kandidaatprofielen door een AI-tool haalt om een shortlist te maken. Een intercedent die een AI-chatbot gebruikt om sollicitatiegesprekken voor te bereiden met suggesties over welke kandidaat het beste past.

Het probleem: dit is hoog-risico AI-gebruik onder de EU AI Act — zonder documentatie, zonder menselijk toezicht, zonder transparantie naar de kandidaat, en zonder dat de organisatie ervan weet. De wet maakt geen onderscheid tussen een officieel ATS en een recruiter die zelfstandig een AI-tool gebruikt voor selectiebeslissingen.

De financiële impact is aanzienlijk. Organisaties met veel shadow AI betalen gemiddeld $670.000 meer per datalek. En 46% van de medewerkers geeft aan door te gaan met ongeautoriseerde AI-tools, zelfs als het expliciet verboden wordt.

Alleen je officiële systemen compliant maken is daarom niet genoeg. Echte compliance vereist dat medewerkers begrijpen welk AI-gebruik wel en niet mag, en waarom. Dat begint bij AI-geletterdheid — een verplichting die overigens nu al geldt onder artikel 4 van de EU AI Act.

Wat moet je als uitzendbureau regelen?

Als deployer van hoog-risico AI-systemen krijg je op grond van de EU AI Act een aantal concrete verplichtingen. De belangrijkste voor uitzendbureaus:

Menselijk toezicht

Je moet waarborgen dat er altijd menselijk toezicht is op de output van het AI-systeem. Een recruiter moet de mogelijkheid hebben om AI-beslissingen te overrulen. Volledig geautomatiseerde afwijzingen zonder menselijke tussenkomst zijn problematisch.

Transparantie naar kandidaten

Kandidaten moeten weten dat er AI wordt ingezet in het selectieproces. Dit gaat verder dan een regel in de privacy policy. Je moet helder communiceren dat en hoe AI-systemen een rol spelen in de beoordeling van hun sollicitatie.

Risicobeheer en monitoring

Je moet een risicobeheerproces hebben voor de AI-systemen die je inzet. Dit omvat het monitoren van de werking, het signaleren van fouten of bias, en het bijhouden van logs. Je hoeft het systeem niet zelf technisch te doorgronden, maar je moet wel aantoonbaar grip hebben op de risico's.

Data governance

De data die je in het AI-systeem invoert moet relevant, representatief en zo veel mogelijk vrij van fouten zijn. Als je trainingsdata of inputdata van kandidaten bevat die structureel bepaalde groepen benadeelt, ben je medeverantwoordelijk.

Registratie in de EU-database

Bepaalde hoog-risico AI-systemen moeten worden geregistreerd in een openbare EU-database. Als deployer moet je hier aan meewerken. De exacte vereisten worden momenteel verder uitgewerkt.

Wanneer moet dit geregeld zijn?

De EU AI Act is op 1 augustus 2024 in werking getreden, maar de verplichtingen worden stapsgewijs van toepassing. Voor uitzendbureaus zijn de volgende data relevant:

feb 2025

Verbod op AI-systemen met onaanvaardbaar risico (zoals sociale scoring en manipulatieve systemen). Niet direct relevant voor standaard uitzendprocessen, maar wel goed om te weten.

aug 2025

Verplichtingen voor aanbieders van general-purpose AI-modellen (denk aan grote taalmodellen). Relevant als je leverancier zo'n model inzet.

aug 2026

De volledige verplichtingen voor hoog-risico AI-systemen worden van toepassing. Dit is de deadline waar uitzendbureaus naartoe moeten werken. Vanaf dit moment moeten alle eisen rond menselijk toezicht, transparantie, risicobeheer en data governance operationeel zijn.

Wat kun je nu al doen?

Augustus 2026 lijkt ver weg, maar de voorbereidingen kosten tijd. Een aantal stappen die je nu al kunt zetten:

Breng in kaart welke AI-systemen je gebruikt. Maak een inventarisatie van alle software in je wervings- en selectieproces die enige vorm van automatische besluitvorming bevat. Vraag je leveranciers expliciet of hun systemen AI-componenten bevatten en zo ja, welke.

Beoordeel per systeem of het als hoog-risico kwalificeert. Niet elk systeem dat het woord “AI” in de marketingtekst heeft staan, is automatisch hoog-risico. Het gaat om systemen die daadwerkelijk invloed hebben op selectiebeslissingen.

Ga het gesprek aan met je leveranciers. Zij zijn als “provider” onder de EU AI Act verantwoordelijk voor de technische kant — conformiteitsbeoordelingen, technische documentatie, CE-markering. Maar jij moet als deployer wel kunnen aantonen dat je het systeem correct en verantwoord inzet.

Begin met het opzetten van interne processen voor menselijk toezicht en transparantie. Zorg dat recruiters weten welke systemen AI bevatten en hoe ze AI-beslissingen moeten beoordelen. En zorg dat kandidaten geïnformeerd worden.

Hoe compliant is jouw uitzendbureau?

Doe de gratis Quick Scan en ontdek in 2 minuten welke van jouw systemen als hoog-risico kwalificeren onder de EU AI Act. Inclusief shadow AI-risico's.

Start de Quick Scan →

Normelo werkt aan een certificeringsprogramma specifiek voor de uitzendbranche. AI-geletterdheid voor recruiters, intercedenten en hiring managers — zodat niet alleen je systemen, maar ook je mensen compliant zijn. Meer informatie volgt.