AI & HR in de eventsector: juridisch overzicht 2026

In 2026 verandert het regelgevend kader voor AI in Europa ingrijpend. De AI Act (Verordening (EU) 2024/1689) treedt in een belangrijke fase, terwijl het “Digital Omnibus”-pakket extra duidelijkheid en aangepaste termijnen brengt. Ook de eventsector wordt hierdoor geraakt: organisatoren en productiebedrijven gebruiken steeds vaker AI voor HR-toepassingen zoals planning, selectie en evaluatie. Deze ogenschijnlijk eenvoudige toepassingen kunnen echter als “hoog risico” worden beschouwd, met belangrijke verplichtingen voor werkgevers tot gevolg.
1. Het regelgevingskader: de AI Act en de risicogebaseerde aanpak
De AI Act, die op 1 augustus 2024 in werking is getreden, legt een geharmoniseerd Europees kader vast voor het gebruik van AI-systemen, door middel van een risicogebaseerde aanpak: hoe hoger de risico’s van een AI-systeem, hoe strenger de regels.
1.1 De vier risiconiveaus (onaanvaardbaar – hoog – beperkt – minimaal)
Onaanvaardbaar risico
AI-systemen zijn verboden wanneer zij een ernstige bedreiging kunnen vormen voor de fundamentele waarden van de EU. Het gaat met name om: systemen voor sociale scoring; het herkennen van emoties in bepaalde contexten, met name op de werkplek en in onderwijsinstellingen; en het uitbuiten van de kwetsbaarheid van specifieke groepen.
Het afleiden van emoties op de werkplek
De AI Act verbiedt 'het in de handel brengen, het voor dit specifieke doel in gebruik stellen of het gebruiken van AI-systemen om emoties van een natuurlijke persoon op de werkplek en in het onderwijs uit af te leiden, behalve wanneer het gebruik van het AI-systeem is bedoeld om uit medische of veiligheidsoverwegingen te worden ingevoerd of in de handel te worden gebracht' (art. 5.1(f)).
Identificatie EN afleiding: beide vallen hieronder
Hoewel de tekst van artikel 5.1. (f) van de AI Act onder de verboden praktijken alleen systemen noemt “voor het afleiden” van emoties, zou het onjuist zijn om hieruit af te leiden dat het louter identificeren van emoties niet onder dit verbod zou vallen.
Voor een verduidelijking van het verschil tussen deze twee begrippen, kan men de richtlijnen raadplegen die de Commissie[1] heeft gepubliceerd in verband met verboden AI-praktijken: identificatie houdt in dat de biometrische gegevens van een natuurlijke persoon verwerkt worden, waardoor een emotie rechtstreeks kan worden vergeleken met en geïdentificeerd worden als een emotie die vooraf in een emotieherkenningssysteem is geprogrammeerd, terwijl in het geval van “afleiding” of “inferentie” de informatie niet uitsluitend gebaseerd op de aldus verzamelde gegevens, maar ook wordt afgeleid uit andere gegevens, met name uit systemen voor zgn. “machine learning” die gegevens gebruiken om emoties te leren herkennen.
De Commissie had de bedoeling om beide praktijken te verbieden, namelijk zowel de herkenning als de inferentie van emoties, gelet op de definitie van het emotieherkenningssysteem in artikel 3 (39) van de AI Act[2] en overweging 44 van de AI Act, waarin wordt verduidelijkt dat het verbod betrekking heeft op systemen 'die bedoeld zijn om te worden gebruikt om de emotionele toestand van natuurlijke personen in situaties die verband houden met de werkplek en het onderwijs te detecteren'.

Een 'gevoel' is niet altijd een «emotie» in de zin van de AI Act
Emoties of intenties die op basis van biometrische gegevens worden afgeleid, kunnen bijvoorbeeld bestaan uit geluk, droefheid, woede, verrassing, weerzin, verlegenheid, opwinding, schaamte, minachting, tevredenheid en plezier (Overweging 18). Deze worden echter beschouwd als uitgesloten van het begrip “emotie” (i) “fysieke toestanden, zoals pijn of vermoeidheid”, evenals (ii) “de loutere detectie van gemakkelijk zichtbare uitdrukkingen, gebaren of bewegingen, tenzij deze worden gebruikt om emoties te herkennen of af te leiden[3]”
Voorbeeld uit de evenementensector:
- Een systeem dat vermoeidheid bij een vrachtwagenchauffeur van een theatergezelschap tijdens een tournee detecteert, zou niet onder het verbod vallen, aangezien vermoeidheid een fysieke toestand is (en geen emotie) waarvan de detectie tot doel heeft ongevallen te voorkomen.
- Wél verboden: een hulpmiddel dat de gezichtsuitdrukkingen van technici tijdens een voorbereidende vergadering zou analyseren om daaruit hun motivatie af te leiden.
De uitzondering op medische of veiligheidsgronden: strikte interpretatie
Het verbod op AI-systemen voor het afleiden van emoties is niet absoluut. Ze zijn toegestaan om medische of veiligheidsredenen (art. 5.1. (f)), zoals systemen die bedoeld zijn voor therapeutisch gebruik”[4] .
Deze uitzondering moet echter restrictief worden geïnterpreteerd om een hoog niveau van bescherming van de grondrechten te waarborgen[5] . Het gebruik van systemen voor emotieherkenning om algemene aspecten van het welzijn te monitoren, zoals de algemene monitoring van stressniveaus op het werk of het opsporen van burn-outs of depressies, valt niet onder deze uitzondering en zou dus niet zijn toegestaan[6] . Voortdurende monitoring door middel van draagbare apparaten wordt zelfs beschouwd als iets dat een negatieve invloed heeft op de gezondheid en veiligheid van werknemers, aangezien dit de stress op het werk kan vergroten en tegelijkertijd de productiviteit kan aantasten.

Het begrip 'veiligheidsredenen' heeft uitsluitend betrekking op de bescherming van het leven en de gezondheid van natuurlijke personen, en niet op de bescherming van andere belangen, zoals de bescherming van goederen tegen diefstal of fraude.
Concreet geldt het verbod dus voor de volgende praktijken: het herkennen van emoties om het welzijn, de motivatie of de tevredenheid van werknemers op het werk, evenals het gebruik van op AI gebaseerde tools om angst te meten op basis van aanwezige stressniveaus of om verveling te meten, tenzij het hoge stressniveau of het ernstige gebrek aan concentratie een concreet gevaar vormt, bijvoorbeeld bij het gebruik van gevaarlijke machines. In dat laatste geval mag de werkgever de gegevens niet voor andere doeleinden gebruiken, zoals de beoordeling van de prestaties van de werknemer.
Voorbeelden uit de evenementensector:
- Een tool die de stressniveaus van podiumteams analyseert om het ‘welzijn te verbeteren’ of de ’tevredenheid’ van werknemers na een evenement te meten, zou verboden zijn.
- Een systeem dat daarentegen een gevaarlijk laag concentratieniveau detecteert bij een kraanmachinist op het podium of een technicus die met pyrotechnische apparatuur werkt, zou onder de veiligheidsuitzondering kunnen vallen, maar de gegevens mogen in geen geval worden hergebruikt voor een ander doel dan het voorkomen van ongevallen, zoals bijvoorbeeld voor het beoordelen van de prestaties van de betrokken werknemers.
HR-toepassingen worden voor gebruik van AI
expliciet vermeld als hoog risico
Hoog risico
Een AI-systeem wordt als een “hoog risico” beschouwd, wanneer het wordt gebruikt in gevoelige domeinen die de rechten van personen aanzienlijk kunnen beïnvloeden, zoals onderwijs, openbare veiligheid of werving. HR-toepassingen worden in bijlage III van de AI Act expliciet vermeld als een "hoog risico”, nl. systemen die bestemd zijn voor 'werving en selectie van personen', meer bepaald voor het 'analyseren en filteren van sollicitaties' en het 'beoordelen van kandidaten', evenals systemen die bestemd zijn voor het nemen van beslissingen die van invloed zijn op de arbeidsvoorwaarden, promotie of ontslag, de toewijzing van taken, of de monitoring en evaluatie van prestaties en gedrag.
Voorbeelden uit de evenementensector:
- Een tool die automatisch sollicitaties filtert voor functies als lichttechnicus, regisseur of logistiek coördinator.
- Een systeem dat na afloop van elke productie prestatiebeoordelingen van de opbouwteams genereert.
- Software voor het monitoren van de planningen en de aanwezigheid van technische teams op locatie, die gedragsanalyses genereert.
Beperkt risico
Een AI-systeem wordt geclassificeerd als beperkt risico wanneer het kan worden gebruikt onder voorbehoud van specifieke transparantieverplichtingen. Gebruikers moeten worden geïnformeerd dat zij communiceren met een AI-systeem, en door AI gegenereerde inhoud moet op passende wijze worden gemarkeerd. Tot deze categorie behoren met name selfserviceportalen die zijn uitgerust met AI-algoritmen, HR-chatbots en virtuele assistenten voor werknemers.
Voorbeeld in de evenementensector: Een interne chatbot waarmee werknemers hun roosters kunnen raadplegen of vragen kunnen stellen over hun contracten, moet duidelijk worden geïdentificeerd als een AI-systeem.
Minimaal risico
Deze categorie omvat alle andere AI-systemen die niet onder de voorgaande categorieën vallen. Het overgrote deel van de AI-systemen die momenteel in de EU worden gebruikt, valt onder deze categorie. Voor deze systemen worden door de AI Act geen specifieke wettelijke vereisten opgelegd, onder voorbehoud van andere toepasselijke wettelijke en contractuele verplichtingen.

1.2 Focus op systemen met een hoog risico in HR
Gezien de ruime definitie vallen in principe vrijwel alle AI-systemen die in HR-processen worden ingezet onder de categorie met hoog risico. De volledige toepassing van de verplichtingen met betrekking tot deze systemen, zoals vastgelegd in hoofdstuk III, werd aanvankelijk verwacht in augustus 2026, onder voorbehoud van de besprekingen in het kader van de Omnibus-procedure.
1.3 Verplichtingen van werkgevers die systemen met een hoog risico inzetten
Verplichte menselijke controle
De AI Act vereist dat AI-systemen met een hoog risico zodanig worden ontworpen en gebruikt dat effectieve menselijke controle mogelijk is. Dit betekent dat de personen die verantwoordelijk zijn voor dit toezicht naar behoren moeten zijn opgeleid en gekwalificeerd; dat permanente bijscholing vereist is om de naleving te handhaven; en dat de toezichthouders daadwerkelijk in staat moeten zijn om in te grijpen en de beslissingen van het systeem te wijzigen.
Deze verplichting staat los van, maar versterkt het in artikel 22 van de Algemene Verordening Gegevensbescherming (AVG) vastgelegde recht om niet te worden onderworpen aan een besluit dat uitsluitend op geautomatiseerde verwerking is gebaseerd.

2. De impact van het “Digital Omnibus”-pakket
Op 19 november 2025 heeft de Europese Commissie haar “Digital Omnibus”-pakket gepresenteerd, dat tot doel heeft de belangrijkste EU-wetgeving met betrekking tot de digitale eengemaakte markt te herzien en te harmoniseren. Dit initiatief streeft verschillende doelstellingen na: het dichten van lacunes in de regelgeving, het wegwerken van overlappingen en het versterken van de rechtszekerheid voor bedrijven, met name kmo’s.
Het pakket bevat verschillende maatregelen om de lasten voor bedrijven te verlichten. Het belangrijkste element voor HR-afdelingen betreft de koppeling tussen de AI Act en de AVG. Bovendien zouden de termijnen voor de toepassing van de verplichtingen met betrekking tot systemen met een hoog risico worden gewijzigd: in plaats van een vaste datum (augustus 2026) zou de inwerkingtreding van de verplichtingen van Titel III afhankelijk zijn van de beschikbaarheid van geharmoniseerde technische normen. Deze verplichtingen zouden pas zes of twaalf maanden na een besluit van de Commissie, waarin de beschikbaarheid van de relevante normen wordt bevestigd, van toepassing worden. Bij gebrek aan een dergelijk besluit zouden de termijnen worden vastgesteld op uiterlijk december 2027 of augustus 2028, afhankelijk van de classificatie. Volgens de prognoses van de Commissie zou dit uitstel kunnen oplopen tot zestien maanden.
Het Omnibus-pakket blijft een voorstel dat onderworpen is aan het trialoogproces (Raad van de EU en Europees Parlement). Bedrijven moeten zich dus blijven voorbereiden op een mogelijke inwerkingtreding vanaf augustus 2026, en ook het verloop van de onderhandelingen over de Digitale Omnibus verder blijven opvolgen.
Werkgevers moeten voor de invoering van een AI-systeem dialoog voeren met werknemersvertegenwoordigers
3. De sociale dialoog: een permanente noodzaak
Zelfs als bepaalde termijnen voor de toepassing van de AI Act zouden worden uitgesteld, dan nog blijft de betrokkenheid van de werknemersvertegenwoordigers in 2026 een absolute prioriteit. AI wordt immers niet alleen gezien als een hulpmiddel dat het werk vergemakkelijkt, maar ook als een potentiële bedreiging voor de werkzekerheid en de arbeidsomstandigheden.
In de meeste lidstaten vereist de invoering van nieuwe AI-systemen, met name op HR-gebied, een voorafgaande raadpleging van de werknemersvertegenwoordigers, op basis van artikel 26, lid 7, van de AI Act en het toepasselijke nationale recht. Dit zou idealiter moeten plaatsvinden vóór de aanschaf van dure systemen.
In België verplicht CAO nr. 39 van 13 december 1983 de werkgever die besluit te investeren in nieuwe technologieën met aanzienlijke collectieve gevolgen op het vlak van werkgelegenheid, arbeidsorganisatie of arbeidsomstandigheden, om de werknemersvertegenwoordigers te raadplegen over deze sociale gevolgen. Werkgevers moeten daarom een proactieve aanpak hanteren door ruim vóór de invoering van een AI-systeem een constructieve dialoog aan te gaan met de werknemersvertegenwoordigers.
Er dient een intern AI-beleid te worden uitgestippeld waarin de regels voor het gebruik van artificiële intelligentie binnen de onderneming duidelijk worden omschreven. Dit document zal dienst doen als gemeenschappelijk referentiekader en de belanghebbenden geruststellen op het vlak van het beheer van deze technologieën, terwijl het meteen ook het engagement van de onderneming ten aanzien van een ethisch en verantwoord gebruik van AI aantoont.
4. Praktische aanbevelingen voor de evenementensector
Helaas heeft de Commissie, ondanks de deadline van 2 februari 2026[7] , nog steeds geen richtsnoeren gepubliceerd waarin de implementatie van systemen met een hoog risico wordt gespecificeerd, met toevoeging van een exhaustieve lijst met praktische voorbeelden van toepassingen van AI-systemen die een hoog risico inhouden en van toepassingen die dat niet doen. Bovendien hebben de Europese autoriteiten die belast zijn met het vaststellen van de technische normen waarmee bedrijven hun naleving van de AI Act kunnen aantonen, eveneens vertraging opgelopen bij de uitwerking van deze normen, die momenteel gepland staan voor het laatste kwartaal van 2026.

Gezien deze rechtsonzekerheid, en dit terwijl de deadline van augustus 2026 met rasse schreden nadert, neemt de politieke druk toe vanuit zowel Amerikaanse als Europese bedrijven om hen meer tijd te geven om aan de vereisten van de AI Act te voldoen.
In deze voortdurend veranderende regelgevende context, en ondanks de bestaande onzekerheden, is het belangrijk dat werkgevers in de evenementensector zich bewust zijn van de aanvullende verplichtingen die de AI Act hen zal opleggen, meer bepaald wat betreft de noodzaak om:
- Impactanalyses uit te voeren vooraleer een nieuw AI-instrument wordt ingevoerd dat een invloed kan hebben op de arbeidsomstandigheden of op beslissingen met betrekking tot het personeel.
- Voorafgaand aan elke implementatie de dialoog aan te gaan met de werknemersvertegenwoordigers, om te anticiperen op bezorgdheden en een klimaat van vertrouwen te creëren.
- Een intern AI-beleid op te stellen waarin de gebruiksregels worden vastgelegd, dat als gemeenschappelijk referentiekader en als ethische verbintenis ten opzichte van de teams kan dienen.
In afwachting van verdere verduidelijking door de Commissie zou het dan ook nuttig zijn om:
- te starten met het in kaart brengen van alle huidige en toekomstige AI-systemen en een eerste indeling te maken volgens de risicocategorieën van de AI Act, waarbij met name de systemen met een hoog risico worden geïdentificeerd, onder voorbehoud van verdere verduidelijking door de Commissie;
- HR-teams en operationele leidinggevenden bewust maken van en opleiden in de gecombineerde vereisten van de AI Act en de AVG:
- de ontwikkelingen rond de besprekingen over het Omnibus-pakket in de Raad van de EU en het Europees Parlement verder actief te blijven opvolgen.
[1]Guidelines_on_prohibited_artificial_intelligence_practices_established_by_Regulation_EU_20241689_AI_Act_Dutch_UuRl1B4cvl75jjlV7F4dBpl4_118649.PDF (nr. 246).
[2] « Een AI-systemen die emoties of intenties van natuurlijke personen identificeren of afleiden op basis van hun biometrische gegevens».
[3] Het gaat met name om elementaire gezichtsuitdrukkingen zoals fronsen of glimlachen, of gebaren zoals bewegingen van handen, armen of het hoofd, of nog om kenmerken van iemands stem, zoals luid spreken of fluisteren. Wanneer deze uitdrukkingen of gebaren echter worden gebruikt om emoties of intenties af te leiden, vallen zij onder het verbod.
[4] Overweging 44.
[5] Richtlijnen, nr. 256.
[6] Richtlijnen, nr. 257.
[7] Opgelegd door artikel 6.5 van de AI Act.H
Bron: Event Confederation