Bureau d'evenements

IA & RH dans le secteur de l'événementiel : aperçu juridique 2026

ai & hr eventsector

En 2026, le cadre réglementaire de l'IA en Europe change radicalement. La loi sur l'IA (règlement (UE) 2024/1689) entre dans une phase importante, tandis que le paquet "Digital Omnibus" apporte plus de clarté et des délais ajustés. Le secteur de l'événementiel est également concerné : les organisateurs et les sociétés de production utilisent de plus en plus l'IA pour des applications RH telles que la planification, la sélection et l'évaluation. Cependant, ces applications apparemment simples peuvent être considérées comme "à haut risque", ce qui entraîne des obligations importantes pour les employeurs.

16 avril 2026

1. Le cadre réglementaire : la loi sur l'IA et l'approche fondée sur les risques

La loi sur l'IA, qui est entrée en vigueur le 1er août 2024, établit un cadre européen harmonisé pour l'utilisation des systèmes d'IA, selon une approche fondée sur les risques : plus les risques d'un système d'IA sont élevés, plus les règles sont strictes.

1.1 Les quatre niveaux de risque (inacceptable - élevé - limité - minimal)

Risque inacceptable

Les systèmes d'IA sont interdits lorsqu'ils peuvent constituer une menace sérieuse pour les valeurs fondamentales de l'UE. Il s'agit notamment des systèmes de notation sociale, de la reconnaissance des émotions dans certains contextes, en particulier sur le lieu de travail et dans les établissements d'enseignement, et de l'exploitation de la vulnérabilité de groupes spécifiques.

Dérivation des émotions sur le lieu de travail

La loi sur l'IA interdit "la commercialisation, la commande à cette fin spécifique ou l'utilisation de systèmes d'IA pour déduire les émotions d'une personne physique sur le lieu de travail et dans les établissements d'enseignement, sauf si l'utilisation du système d'IA est destinée à être introduite ou commercialisée pour des raisons médicales ou de sécurité" (article 5, paragraphe 1, point f).

kunstmatige intellegentie

Identification ET détournement : les deux sont couverts

Bien que le texte de l'article 5.1 (f) de la loi sur l'IA ne mentionne parmi les pratiques interdites que les systèmes "destinés à détourner" les émotions, il serait incorrect d'en déduire que la simple identification des émotions ne serait pas couverte par cette interdiction.

Pour clarifier la différence entre ces deux concepts, on peut consulter les lignes directrices publiées par la Commission[1] concernant les pratiques interdites en matière d'IA : l'identification implique le traitement des données biométriques d'une personne physique, ce qui permet de comparer et d'identifier directement une émotion avec une émotion préprogrammée dans un système de reconnaissance des émotions, tandis que dans le cas de la "dérivation" ou de l'"inférence", l'information ne repose pas uniquement sur les données ainsi collectées, mais est également dérivée d'autres données, notamment de systèmes dits d'"apprentissage automatique" qui utilisent des données pour identifier une émotion. Les systèmes dits "d'apprentissage automatique" qui utilisent les données pour apprendre à reconnaître les émotions.

La Commission avait l'intention d'interdire les deux pratiques, à savoir la reconnaissance des émotions et l'inférence, compte tenu de la définition du système de reconnaissance des émotions figurant à l'article 3, paragraphe 39, de la loi sur l'IA[2] et du considérant 44 de la loi sur l'IA, qui précise que l'interdiction couvre les systèmes "destinés à être utilisés pour détecter l'état émotionnel de personnes physiques dans des situations liées au lieu de travail et à l'éducation".

gevoel vrachtwagenchauffeur

Un "sentiment" n'est pas toujours une "émotion" au sens de la loi sur l'IA

Les émotions ou intentions déduites des données biométriques peuvent inclure, par exemple, le bonheur, la tristesse, la colère, la surprise, le dégoût, l'embarras, l'excitation, la honte, le mépris, la satisfaction et le plaisir (considérant 18). Toutefois, sont considérés comme exclus du concept d'"émotion" (i) "les états physiques, tels que la douleur ou la fatigue", ainsi que (ii) "la simple détection d'expressions, de gestes ou de mouvements facilement visibles, à moins qu'ils ne soient utilisés pour reconnaître ou déduire une émotion[3]".

Exemple dans le secteur de l'événementiel :

  • Un système qui détecte la fatigue d'un chauffeur de camion d'une compagnie théâtrale pendant une tournée ne serait pas couvert par l'interdiction, car la fatigue est un état physique (et non une émotion) dont la détection vise à prévenir les accidents.
  • Interdit en revanche : un dispositif qui analyserait les expressions faciales des techniciens lors d'une réunion préparatoire pour en déduire leur motivation.

L'exception pour raisons médicales ou de sécurité : interprétation stricte

L'interdiction des systèmes d'IA permettant de déduire les émotions n'est pas absolue. Ils sont autorisés pour des raisons médicales ou de sécurité (article 5, paragraphe 1, point f)), tels que les systèmes destinés à un usage thérapeutique"[4] .

Toutefois, cette exception doit être interprétée de manière restrictive afin de garantir un niveau élevé de protection des droits fondamentaux[5] . L'utilisation de systèmes de reconnaissance des émotions pour surveiller des aspects généraux du bien-être, tels que la surveillance générale des niveaux de stress au travail ou la détection de l'épuisement professionnel ou de la dépression, ne relève pas de cette exception et ne serait donc pas autorisée[6] . La surveillance continue au moyen de dispositifs portables est même considérée comme ayant un impact négatif sur la santé et la sécurité des travailleurs, car elle peut accroître le stress au travail tout en affectant la productivité.

uitzondering evenementen

La notion de "raisons de sécurité" se réfère uniquement à la protection de la vie et de la santé des personnes physiques, et non à la protection d'autres intérêts, tels que la protection des biens contre le vol ou la fraude.

Concrètement, l'interdiction s'applique donc aux pratiques suivantes : la reconnaissance des émotions pour améliorer le bien-être, la motivation ou la satisfaction des employés au travail, ainsi que l'utilisation d'outils basés sur l'IA pour mesurer l'anxiété en fonction du niveau de stress présent ou pour mesurer l'ennui, à moins que le niveau de stress élevé ou le manque de concentration grave ne représente un danger concret, par exemple lors de l'utilisation d'une machine dangereuse. Dans ce dernier cas, l'employeur ne peut pas utiliser les données à d'autres fins, telles que l'évaluation des performances de l'employé.

Exemples tirés du secteur de l'événementiel :

  • Un outil qui analyse le niveau de stress des équipes de scène pour "améliorer le bien-être" ou mesurer la "satisfaction" des employés après un événement serait interdit.
  • En revanche, un système qui détecte des niveaux de concentration dangereusement bas chez un grutier sur scène ou un technicien travaillant avec du matériel pyrotechnique pourrait relever de l'exception relative à la sécurité, mais les données ne devraient en aucun cas être réutilisées à d'autres fins que la prévention des accidents, comme l'évaluation des performances des travailleurs concernés.

Les applications RH concernent l'utilisation de l'IA
explicitement répertoriées comme étant à haut risque

Risque élevé

Un système d'IA est considéré comme "à haut risque" lorsqu'il est utilisé dans des domaines sensibles susceptibles d'affecter de manière significative les droits des personnes, tels que l'éducation, la sécurité publique ou le recrutement. Les applications RH sont explicitement répertoriées comme étant à "haut risque" dans l'annexe III de la loi sur l'IA, c'est-à-dire les systèmes destinés au "recrutement et à la sélection de personnes", plus précisément à "l'analyse et au filtrage des candidatures" et à "l'évaluation des candidats", ainsi que les systèmes destinés à prendre des décisions concernant les conditions d'emploi, la promotion ou le licenciement, l'attribution de tâches, ou le suivi et l'évaluation des performances et du comportement.

Exemples tirés du secteur de l'événementiel :

  • Un outil qui filtre automatiquement les demandes d'emploi pour des postes tels que technicien d'éclairage, directeur ou coordinateur logistique.
  • Un système qui génère des évaluations des performances des équipes de montage après chaque production.
  • Logiciel de suivi des horaires et de la présence des équipes techniques sur le site, qui génère des analyses comportementales.

Risque limité

Un système d'IA est qualifié de risque limité lorsqu'il peut être utilisé moyennant des obligations de transparence spécifiques. Les utilisateurs doivent être informés qu'ils interagissent avec un système d'IA et le contenu généré par l'IA doit être signalé de manière appropriée. Cette catégorie comprend notamment les portails en libre-service équipés d'algorithmes d'IA, les chatbots RH et les assistants virtuels des employés.

Exemple dans le secteur de l'événementiel : un chatbot interne qui permet aux employés de consulter leurs listes ou de poser des questions sur leurs contrats doit être clairement identifié comme un système d'IA.

Risque minimal

Cette catégorie comprend tous les autres systèmes d'IA qui n'entrent pas dans les catégories précédentes. La grande majorité des systèmes d'IA actuellement utilisés dans l'UE entrent dans cette catégorie. La loi sur l'IA n'impose aucune exigence légale spécifique pour ces systèmes, sous réserve d'autres obligations légales et contractuelles applicables.

minimaal risico ai

1.2 Concentration sur les systèmes à haut risque dans les ressources humaines

Compte tenu de la définition large, la quasi-totalité des systèmes d'IA déployés dans les processus de ressources humaines relèvent en principe de la catégorie des systèmes à haut risque. La mise en œuvre complète des obligations relatives à ces systèmes, telles que définies au chapitre III, était initialement prévue pour août 2026, sous réserve des discussions menées dans le cadre du processus Omnibus.

1.3 Obligations des employeurs déployant des systèmes à haut risque

Surveillance humaine obligatoire

La loi sur l'IA exige que les systèmes d'IA à haut risque soient conçus et exploités de manière à permettre un contrôle humain efficace. Cela signifie que les personnes chargées de ce contrôle doivent être correctement formées et qualifiées, qu'une formation continue est nécessaire pour maintenir la conformité et que les superviseurs doivent avoir la capacité effective d'intervenir et de modifier les décisions du système.

Cette obligation est distincte du droit énoncé à l'article 22 du règlement général sur la protection des données (RGPD) de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, mais elle le renforce.

verplichte menselijke controle

2. L'impact du paquet "Digital Omnibus

Le 19 novembre 2025, la Commission européenne a présenté son paquet "Digital Omnibus", qui vise à réviser et à harmoniser les principaux textes législatifs de l'UE relatifs au marché unique numérique. Cette initiative poursuit plusieurs objectifs : combler les lacunes réglementaires, éliminer les chevauchements et renforcer la sécurité juridique pour les entreprises, en particulier les PME.

Le paquet contient plusieurs mesures visant à alléger la charge pesant sur les entreprises. L'élément le plus important pour les départements des ressources humaines concerne le lien entre la loi sur l'IA et la LVA. En outre, les délais d'application des obligations relatives aux systèmes à haut risque seraient modifiés : au lieu d'une date fixe (août 2026), l'entrée en vigueur des obligations du titre III dépendrait de la disponibilité de normes techniques harmonisées. Ces obligations ne deviendraient applicables que six ou douze mois après une décision de la Commission confirmant la disponibilité des normes concernées. En l'absence d'une telle décision, les délais seraient fixés à décembre 2027 ou août 2028 au plus tard, selon la classification. Selon les projections de la Commission, ce délai pourrait atteindre 16 mois.

Le paquet Omnibus reste une proposition soumise au processus de trilogue (Conseil de l'UE et Parlement européen). Les entreprises doivent donc continuer à se préparer à une éventuelle entrée en vigueur à partir d'août 2026 et à suivre l'évolution des négociations sur le paquet Digital Omnibus.

Les employeurs devraient dialoguer avec les représentants des travailleurs avant l'introduction d'un système d'IA

3. Le dialogue social : une nécessité permanente

Même si certaines échéances pour la mise en œuvre de la loi sur l'IA devaient être reportées, l'implication des représentants des travailleurs reste une priorité absolue en 2026. En effet, l'IA est perçue non seulement comme un outil facilitant le travail, mais aussi comme une menace potentielle pour la sécurité de l'emploi et les conditions de travail.

Dans la plupart des États membres, l'introduction de nouveaux systèmes d'IA, en particulier dans le domaine des ressources humaines, nécessite une consultation préalable des représentants des travailleurs, conformément à l'article 26, paragraphe 7, de la loi sur l'IA et au droit national applicable. Idéalement, cette consultation devrait avoir lieu avant l'acquisition de systèmes coûteux.

En Belgique, la CCT n° 39 du 13 décembre 1983 impose aux employeurs qui décident d'investir dans de nouvelles technologies ayant des conséquences collectives importantes en termes d'emploi, d'organisation du travail ou de conditions de travail, de consulter les représentants des travailleurs sur ces conséquences sociales. Les employeurs doivent donc adopter une approche proactive en engageant un dialogue constructif avec les représentants des travailleurs bien avant l'introduction d'un système d'IA.

Il convient d'élaborer une politique interne en matière d'IA qui définisse clairement les règles d'utilisation de l'intelligence artificielle au sein de l'entreprise. Ce document servira de cadre de référence commun et rassurera les parties prenantes sur la gestion de ces technologies, tout en démontrant l'engagement de l'entreprise en faveur d'une utilisation éthique et responsable de l'IA.

4. Recommandations pratiques pour le secteur événementiel

Malheureusement, malgré l'échéance du 2 février 2026[7], la Commission n'a toujours pas publié de lignes directrices précisant la mise en œuvre des systèmes à haut risque, avec l'ajout d'une liste exhaustive d'exemples pratiques d'applications à haut risque et à faible risque des systèmes d'IA. Par ailleurs, les autorités européennes chargées de fixer les normes techniques par lesquelles les entreprises pourront démontrer leur conformité à l'AI Act ont également pris du retard dans l'élaboration de ces normes, actuellement prévue pour le dernier trimestre 2026.

praktische aanbevelingen

Compte tenu de cette incertitude juridique, et ce alors que l'échéance d'août 2026 approche à grands pas, les pressions politiques s'accentuent de la part des entreprises américaines et européennes pour leur donner plus de temps pour se conformer aux exigences de la loi sur l'IA.

Dans ce contexte réglementaire en constante évolution, et malgré les incertitudes existantes, il est important que les employeurs du secteur de l'événementiel soient conscients des obligations supplémentaires que la loi sur l'IA leur imposera, notamment en ce qui concerne la nécessité de :

  • Réaliser des analyses d'impact avant de mettre en œuvre tout nouvel outil d'IA susceptible d'affecter les conditions de travail ou les décisions relatives au personnel.
  • Engager un dialogue avec les représentants du personnel avant toute mise en œuvre, afin d'anticiper les préoccupations et de créer un climat de confiance.
  • Établir une politique interne en matière d'IA définissant les règles d'utilisation afin de servir de cadre de référence commun et d'engagement éthique pour les équipes.

Dans l'attente de précisions supplémentaires de la part de la Commission, il serait donc utile de :

  • commencer à cartographier tous les systèmes d'IA actuels et futurs et procéder à une première classification selon les catégories de risque de la loi sur l'IA, en identifiant en particulier les systèmes à haut risque, sous réserve de précisions supplémentaires de la part de la Commission ;
  • sensibiliser et former les équipes RH et les responsables opérationnels aux exigences combinées de la loi sur l'IA et de la loi sur la protection des données :
  • continuer à suivre activement l'évolution des discussions sur le paquet Omnibus au sein du Conseil de l'UE et du Parlement européen.

[1]Guidelines_on_prohibited_artificial_intelligence_practices_established_by_Regulation_EU_20241689_AI_Act_French_W93yH86kSd4aAjUHkfgL8HTck3Q_118657.PDF (n° 246) – Ci-après: “Lignes directrices”.
[2] « Un système d’IA permettant la reconnaissance ou la déduction des émotions ou des intentions de personnes physiques sur la base de leurs données biométriques ».
[3] Il s’agit notamment des expressions faciales élémentaires telles qu’un froncement de sourcils ou un sourire, ou des gestes tel qu’un mouvement de mains, de bras ou de tête, ou encore des caractéristiques de la voix d’une personne, comme le fait de parler fort ou de chuchoter. Toutefois, lorsque ces expressions ou gestes sont utilisés pour inférer des émotions ou des intentions, ils tombent sous le coup de l’interdiction.
[4] Considération 44.
[5] Lignes Directrices, n° 256.
[6] Lignes directrices, n° 257.
[7] Imposé par l’article 6.5 de l’AI Act.

Source: Event Confederation

Wat heb je nodig

Accès GRATUIT à l'article
ou
Faites un essai gratuit!Devenez un partenaire premium gratuit pendant un mois
et découvrez tous les avantages uniques que nous avons à vous offrir.
  • newsletter hebdomadaire avec des nouvelles de votre secteur
  • l'accès numérique à 35 revues spécialisées et à des aperçus du secteur financier
  • Vos messages sur une sélection de sites web spécialisés
  • une visibilité maximale pour votre entreprise
Vous êtes déjà abonné? 

En savoir plus sur

Magazine imprimé

Édition Récente
09 décembre 2024

Lire la suite

Découvrez la dernière édition de notre magazine, qui regorge d'articles inspirants, d'analyses approfondies et de visuels époustouflants. Laissez-vous entraîner dans un voyage à travers les sujets les plus brûlants et les histoires que vous ne voudrez pas manquer.

Dans ce magazine