- Accueil
- Nos podcasts "Sur un air de RH"
- L'IA en entreprise et ses enjeux juridiques
L'IA en entreprise et ses enjeux juridiques
Temps de lecture : 2 min
L’intelligence artificielle gagne tous les services de l’entreprise : RH, marketing, comptabilité… 58 % des dirigeants de PME‑ETI la considèrent même comme un enjeu de survie. Mais chaque gain de productivité s’accompagne de risques juridiques souvent sous‑estimés : discrimination, fuite de données, contrefaçon… Dans cet épisode 06 de la saison 5 de Sur un air de RH, nous interrogeons Marie Municchi, avocate collaboratrice au cabinet EMPREINTE AVOCATS, pour démystifier le cadre légal.
Un règlement européen spécifique : l’IA Act
Avant l’IA Act, l’IA restait soumise au seul droit commun (contrats, responsabilité civile, propriété intellectuelle) . L’Union européenne a donc adopté ce texte pionnier, dont l’entrée en vigueur se fait par paliers jusqu’en 2027  :
- Depuis février 2025 : interdiction des systèmes jugés trop dangereux (ex. notation sociale, reconnaissance biométrique en temps réel).
- Depuis août 2025 : obligations pour les IA à usage général (ex. ChatGPT).
- Août 2026 : encadrement des IA « à haut risque » (recrutement, scoring crédit).
- 2027 : application complète du règlement.
Important
À retenir : se conformer à l’IA Act n’exonère pas du RGPD : les deux cadres s’additionnent.
Les quatre risques majeurs pointés avec l'IA en entreprise
- Responsabilité & biais algorithmiques
Une IA de tri de CV peut discriminer selon l’âge ou l’origine ; l’exemple du procès Workday aux États‑Unis l’illustre. - Protection des données personnelles
Les IA utilisent des volumes massifs de données ; l’entreprise doit sécuriser et justifier chaque traitement au regard du RGPD. - Confidentialité
Un salarié qui interroge un chatbot avec des informations stratégiques peut, sans le vouloir, violer un accord de confidentialité. - Propriété intellectuelle
Contenus générés par IA : attention au recyclage d’œuvres protégées ou à l’utilisation d’images inspirées de marques ou personnages célèbres.
Premiers réflexes pour se protéger
- Analyser systématiquement les risques avant tout déploiement.
- Exiger des garanties solides des éditeurs (conditions d’usage, droits sur les contenus).
- Mettre en place une politique interne claire et former les équipes : qu’est‑ce que l’IA, où l’utilise‑t‑on, quels sont les biais possibles ? La Commission européenne recommande de tracer ces formations.
- Informer les salariés, candidats ou clients lorsqu’une décision ou un contenu est généré par IA.
Quelles sanctions en cas de manquement ?
- IA Act : amende pouvant aller jusqu’à  35 M € ou 7 % du chiffre d’affaires mondial.
- RGPD : jusqu’à  20 M € ou 4 % du chiffre d’affaires mondial.
- Propriété intellectuelle : dommages‑intérêts et éventuellement sanctions pénales.
Le juge peut aussi ordonner la publication de la décision, amplifiant l’impact réputationnel.
L’IA est un formidable outil s’il est encadré : analyse des risques, contractualisation solide, politique interne, formation et information. À défaut, l’entreprise s’expose non seulement à des sanctions financières, mais aussi à une perte de confiance de ses parties prenantes.
🎧 Pour approfondir : écoutez l’épisode complet de Sur un air de RH.
Et ne ratez plus aucun épisode de notre podcast RH. Apple Podcasts, Spotify, Deezer, Amazon, flux RSS...
Cliquez ici pour vous abonner sur votre plateforme préférée !