RGPD et IA générative en entreprise : attention aux données internes

Date : Tags : , , , ,

Depuis quelques temps, les directions métiers se ruent sur l'IA générative sans se demander ce que deviennent leurs données internes dans ces outils. Or, tant du point de vue du RGPD que de la gouvernance de l'information, ces usages improvisés représentent un risque majeur pour les entreprises françaises.

IA générative en entreprise : sous le radar juridique

Dans de nombreuses sociétés, les projets d'intelligence artificielle avancent plus vite dans les équipes opérationnelles que dans les comités de gouvernance. Des collaborateurs copient‑collent des contrats, des tableaux RH ou des rapports de risque dans des assistants IA pour "gagner du temps", sans aucune traçabilité.

Depuis l'arrivée des modèles dits "copilot" proposés par les grands éditeurs, ce phénomène s'est accéléré, en particulier dans les environnements bureautiques et de développement.

Pourtant, sur le plan juridique, ces usages relèvent très souvent d'un traitement de données personnelles et/ou confidentielles au sens contractuel ou du secret des affaires.

Du côté du RGPD

Si des données personnelles sont injectées dans un outil d'IA générative, il faut :

  1. Qualifier le rôle des acteurs - responsable de traitement, sous‑traitant, co‑responsable - en fonction du modèle de service proposé.
  2. Identifier les finalités (assistance à la rédaction, analyse de contrats, support client, etc.).
  3. Cartographier les catégories de données traitées, y compris les données potentiellement sensibles.
  4. Vérifier les transferts hors UE, les mécanismes de garanties et l'empilement contractuel du fournisseur.
  5. Mettre à jour la documentation (registre, analyses d'impact, mentions d'information, politique interne).

Dans les faits, il n'existe que de façon rarissime une cartographie des usages d'IA dans l'entreprise, et le décalage entre pratique et conformité augmente de façon incontrôlée.

l'IA Act arrive, mais c'est dans les contrats avec les fournisseurs d'IA que réside le premier risque

L'AI Act européen, adopté en 2024, focalise l'attention. On y parle de systèmes à haut risque, de modèles de base, d'interdictions ciblées. 

En réalité, le principal point de fragilité n'est généralement pas dans le périmètre formel de l'IA Act. Il est dans les contrats conclus avec les fournisseurs de solutions d'IA ou d'outils bureautiques intégrant de l'IA générative :

  • Conditions générales floues sur l'usage ultérieur des données.
  • Silence sur la traçabilité des prompts et des jeux de données utilisés.
  • Clauses de sous‑traitance planétaires, impossibles à auditer sérieusement.

Il est nécessaire de reprendre la main contrat par contrat, projet par projet, avant que ces outils ne soient totalement enracinés dans les processus critiques de l'entreprise.

Le "dark usage" des données internes : exemple

Une équipe commerciale utilise un assistant IA connecté au CRM pour élaborer des propositions. L'outil agrège automatiquement des données clients historiques, des échanges de mails, des informations de facturation et parfois des éléments de santé indirects (mutuelles, prévoyance, etc.). Le tout repose sur un modèle fourni par un prestataire étranger, via une plateforme multi‑tenant.

Un jour, un client reçoit, par erreur, une synthèse contenant des éléments sur un autre client, générée à partir d'un prompt mal paramétré. On peut imaginer la suite.

Proposition : une feuille de route juridique réaliste

1. Cartographier les usages réels

  • Interroger les métiers, les équipes IT, la direction financière, les RH.
  • Identifier les outils d'IA déjà activés dans les suites bureautiques, CRM, solutions SaaS.
  • Repérer les usages "officieux" : comptes gratuits, extensions navigateur, API testées en cachette.

2. Classer les cas d'usage par criticité juridique

Une fois la cartographie réalisée, il faut hiérarchiser :

  • Les usages manipulant des données sensibles ou hautement confidentielles (santé, données RH, finance, propriété industrielle).
  • Les usages exposés à des tiers (support client, chatbots, scoring, décision semi‑automatisée).
  • Les usages internes à faible enjeu (assistance à la rédaction de contenus génériques, support à la veille).

3. Revoir les contrats avec les fournisseurs d'IA

Pour les usages critiques, il est légitime d'exiger :

  • Une clarification explicite des finalités et des catégories de données traitées.
  • Une interdiction claire de réutilisation des données à des fins d'entraînement du modèle, sauf accord strictement encadré.
  • Des garanties sur la localisation des traitements et les transferts hors UE.
  • Un véritable régime de responsabilité (plafond, exclusions, pénalités) aligné sur les enjeux métier.
  • Des droits d'audit ou, à tout le moins, des rapports de conformité sérieux.

4. Documenter

La CNIL, dans ses lignes directrices sur l'intelligence artificielle, rappelle que l'enjeu n'est pas seulement la conformité théorique, mais la capacité à prouver cette conformité.

  • Mettre à jour le registre des traitements pour intégrer les usages d'IA pertinents.
  • Documenter les analyses d'impact lorsqu'elles sont nécessaires.
  • Adapter les mentions d'information aux personnes concernées.
  • Formaliser une politique interne encadrant l'usage de l'IA par les équipes.

À lire également

Date :
Signer électroniquement semble évident.
Mais en contentieux, la question n’est jamais “est-ce signé ?”
C’est : “l’entreprise peut-elle le prouver, des années plus tard, avec un dossier solide ?”.
Cet entretien de Maître Renard par SWIM Legal revient sur les niveaux de signature, les risques réels et les bons réflexes contractuels.
Date :
Le Règlement européen eIDAS V2, paru courant 2024, est surtout connu pour la création d’un wallet européen portant des fonctions normalisées d’identité numérique. Mais il a également rajouté à la liste des « services de confiance », tels que la signature ou le cachet électronique, un « service d’archivage qualifié » qui vient de prendre toute sa matérialité avec la parution le 16 décembre 2025 de l’acte d’exécution définissant sa norme de référence.
Date :
La chambre sociale de la Cour de Cassation a rendu le 8 mars 2023 un arrêt (Chambre sociale n°21-12.492) rappelant, au visa du point (4) de l'introduction du RGPD, que "le droit à la protection des données à caractère personnel n'est pas un droit absolu et doit être considéré par rapport à sa fonction dans la société et être mis en balance avec d'autres droits fondamentaux, conformément au principe de proportionnalité".