Donneespersonnelles.fr

Plateforme de veille en conformite numerique

Vendredi 17 avril 2026
AI Act

IA et RGPD : les règles applicables au traitement par intelligence artificielle

L'utilisation de l'IA pour traiter des données personnelles est soumise au RGPD. Bases légales, AIPD, décisions automatisées et droits des personnes.

L’intelligence artificielle ne bénéficie d’aucune exemption au regard du droit de la protection des données personnelles. Dès lors qu’un système d’IA traite des données à caractère personnel – que ce soit lors de sa phase d’entraînement, de son fonctionnement opérationnel ou de la génération de ses résultats --, le RGPD s’applique pleinement. Le cadre IA RGPD constitue donc un enjeu de conformité majeur pour toute organisation déployant ou développant des solutions d’intelligence artificielle.

Cet article examine en détail les principales exigences du RGPD dans le contexte de l’IA, en intégrant les recommandations de la CNIL et l’articulation avec le AI Act.

Le RGPD s’applique à tous les traitements de données personnelles par l’IA

Il convient d’insister sur ce point fondamental : le RGPD ne comporte aucune dérogation spécifique pour les traitements réalisés par des systèmes d’intelligence artificielle. L’ensemble des principes, obligations et droits prévus par le règlement s’appliquent sans réserve.

Cela concerne notamment :

  • L’entraînement des modèles : lorsque des données personnelles sont utilisées pour entraîner un modèle d’IA (données de clients, données comportementales, données de navigation, images, textes contenant des informations personnelles), ce traitement est soumis au RGPD.

  • Le fonctionnement opérationnel : lorsqu’un système d’IA traite des données personnelles en entrée pour produire un résultat (système de scoring, recommandation personnalisée, analyse de risques, détection de fraude), le RGPD s’applique.

  • Les données de sortie : lorsque les résultats produits par l’IA constituent eux-mêmes des données personnelles (scores, profils, prédictions relatives à une personne identifiée ou identifiable), ces données sont soumises au RGPD.

La CNIL a confirmé cette analyse dans ses recommandations publiées en 2024 sur le développement de systèmes d’IA, soulignant que la qualification de traitement de données personnelles doit s’apprécier largement dans le contexte de l’intelligence artificielle.

Les bases légales pour les traitements d’IA

Le choix de la base légale : une question critique

La détermination de la base légale constitue l’un des enjeux les plus délicats de la conformité IA RGPD. L’article 6 du RGPD impose que tout traitement de données personnelles repose sur l’une des six bases légales énumérées de manière exhaustive.

L’intérêt légitime (article 6.1.f)

Pour les traitements liés à l’entraînement de modèles d’IA, la CNIL a reconnu que l’intérêt légitime peut constituer une base légale appropriée dans certains cas, sous réserve de la réalisation d’une mise en balance rigoureuse entre l’intérêt du responsable de traitement et les droits et libertés des personnes concernées.

Cette mise en balance doit intégrer plusieurs paramètres spécifiques au contexte de l’IA :

  • La nature et la sensibilité des données utilisées pour l’entraînement
  • Les attentes raisonnables des personnes concernées quant à l’utilisation de leurs données
  • Les mesures de minimisation et de pseudonymisation mises en oeuvre
  • Les risques spécifiques liés à la capacité du modèle à mémoriser ou restituer des données d’entraînement
  • Les garanties supplémentaires offertes (droit d’opposition facilité, etc.)

Le consentement (article 6.1.a)

Le consentement peut être utilisé, mais les exigences du RGPD (consentement libre, spécifique, éclairé, univoque) sont difficiles à satisfaire pour des corpus massifs et hétérogènes. Le droit de retrait pose un défi technique majeur : comment supprimer l’influence des données d’une personne sur un modèle déjà entraîné ?

L’exécution d’un contrat (article 6.1.b)

Lorsque l’IA est utilisée pour fournir un service contractuellement prévu (personnalisation, recommandation, assistance), l’exécution du contrat peut servir de base légale pour le traitement opérationnel. En revanche, cette base légale est généralement inadaptée pour l’entraînement du modèle lui-même, car celui-ci dépasse le cadre de l’exécution du contrat avec la personne concernée.

L’obligation légale et la mission d’intérêt public

Pour les organismes publics ou les entités soumises à des obligations légales spécifiques, les bases légales des articles 6.1.c (obligation légale) et 6.1.e (mission d’intérêt public) peuvent s’appliquer. Cela concerne par exemple les systèmes d’IA déployés par les autorités de lutte contre la fraude fiscale ou les organismes de santé publique.

L’article 22 du RGPD : décisions automatisées et IA

Le principe de l’article 22

L’article 22 du RGPD accorde aux personnes le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative. Cette disposition est directement pertinente pour de nombreux systèmes d’IA.

Le champ d’application dans le contexte de l’IA

Un système d’IA qui prend des décisions sans intervention humaine substantielle et qui produit des effets significatifs sur des personnes relève du champ de l’article 22. Les exemples sont nombreux :

  • Un algorithme de crédit scoring qui refuse automatiquement un prêt
  • Un système de tri de CV qui écarte des candidatures sans revue humaine
  • Un outil de détection de fraude qui bloque automatiquement des transactions
  • Un système de tarification dynamique en assurance fondée sur le profilage

Les exceptions et garanties

L’article 22, paragraphe 2, prévoit trois exceptions au principe d’interdiction :

  1. La décision est nécessaire à la conclusion ou l’exécution d’un contrat
  2. La décision est autorisée par le droit de l’Union ou d’un État membre
  3. La décision est fondée sur le consentement explicite de la personne

Dans tous les cas, des garanties appropriées doivent être mises en place, incluant au minimum :

  • Le droit d’obtenir une intervention humaine
  • Le droit d’exprimer son point de vue
  • Le droit de contester la décision

L’articulation avec le AI Act

Le AI Act impose également des exigences de contrôle humain pour les systèmes d’IA à haut risque (article 14). Ces exigences se cumulent avec celles de l’article 22 du RGPD, créant un cadre renforcé pour les systèmes d’IA décisionnels traitant des données personnelles. La convergence de ces deux textes plaide pour la mise en place de mécanismes robustes de supervision humaine.

L’analyse d’impact relative à la protection des données (AIPD)

Quand une AIPD est-elle requise pour un système d’IA ?

L’article 35 du RGPD impose la réalisation d’une AIPD lorsqu’un traitement est susceptible d’engendrer un risque élevé pour les droits et libertés des personnes physiques. Dans le contexte de l’IA, l’AIPD sera généralement obligatoire en présence d’au moins deux des critères suivants du Groupe de travail Article 29 (WP 248) :

  • Évaluation ou notation (scoring, profilage)
  • Prise de décision automatisée avec effet juridique ou similaire
  • Surveillance systématique
  • Données sensibles ou à caractère hautement personnel
  • Traitement à grande échelle
  • Croisement ou combinaison de jeux de données
  • Données relatives à des personnes vulnérables
  • Utilisation innovante ou application de nouvelles solutions technologiques
  • Traitement empêchant l’exercice d’un droit ou le bénéfice d’un service

Dans la pratique, la plupart des systèmes d’IA traitant des données personnelles rempliront au moins deux de ces critères, rendant l’AIPD quasi systématique. Pour un guide détaillé sur la réalisation d’une AIPD dans le contexte spécifique de l’intelligence artificielle, consultez notre article dédié : AIPD pour l’IA : quand et comment réaliser une analyse d’impact.

Les éléments spécifiques à l’IA dans l’AIPD

L’AIPD d’un système d’IA doit intégrer des éléments d’analyse propres à cette technologie :

  • L’évaluation des risques de biais algorithmiques et de discrimination
  • L’analyse de l’opacité du modèle et ses implications pour les droits des personnes
  • L’examen de la qualité des données d’entraînement et de leur représentativité
  • L’évaluation des risques de mémorisation de données personnelles par le modèle
  • Les mesures de robustesse et de sécurité face aux attaques adversariales

La transparence et le droit à l’information

Les articles 13 et 14 du RGPD imposent d’informer les personnes sur l’existence d’un traitement automatisé, de fournir des informations utiles sur la logique sous-jacente du système et de communiquer sur l’importance et les conséquences du traitement. L’exigence de transparence n’impose pas de divulguer le code source, mais suppose de fournir des explications compréhensibles sur les facteurs pris en compte et les effets potentiels.

L’article 15 étend le droit d’accès aux informations sur la logique sous-jacente et les conséquences du traitement automatisé, ce qui implique l’intégration de mécanismes d’explicabilité dès la conception du système.

La minimisation des données face au machine learning

Le paradoxe de la minimisation

Le principe de minimisation des données (article 5.1.c du RGPD) impose que les données collectées soient adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités du traitement. Or, les approches de machine learning reposent fréquemment sur le traitement de volumes massifs de données, ce qui crée une tension apparente avec ce principe.

Les solutions pratiques

La CNIL a identifié plusieurs pistes pour concilier performance du modèle et minimisation des données :

Ces enjeux de minimisation se posent avec une acuité particulière dans les systèmes de RAG (génération augmentée par récupération), ou la base documentaire interrogée par le modèle contient fréquemment des données personnelles qui doivent être strictement limitées au nécessaire.

  • L’anonymisation en amont : lorsque les données personnelles ne sont pas nécessaires à l’entraînement, l’anonymisation préalable permet de sortir du champ du RGPD.
  • La pseudonymisation : le remplacement des identifiants directs par des pseudonymes réduit les risques sans dégrader nécessairement la performance du modèle.
  • L’apprentissage fédéré (federated learning) : les données restent sur les terminaux des utilisateurs et seuls les paramètres du modèle circulent, limitant l’exposition des données personnelles.
  • La confidentialité différentielle (differential privacy) : l’ajout de bruit statistique aux données d’entraînement limite la possibilité de reconstituer des données individuelles à partir du modèle.
  • La sélection rigoureuse des variables : l’analyse de la pertinence de chaque variable au regard de la finalité du traitement permet d’écarter les données non nécessaires.

Les recommandations de la CNIL sur l’IA

La CNIL a fait de l’intelligence artificielle un axe stratégique, avec un plan d’action couvrant la compréhension des systèmes d’IA, la publication de recommandations pratiques, l’accompagnement des acteurs et les contrôles. Ses fiches pratiques couvrent la définition de la finalité, le choix de la base légale, la constitution des jeux de données d’entraînement, la gestion des droits, l’AIPD et la sécurité. Ces recommandations constituent une référence essentielle pour toute démarche de mise en conformité IA RGPD.

Le droit à l’effacement face aux modèles d’IA

Le défi technique de l’effacement

L’article 17 du RGPD consacre le droit à l’effacement (droit à l’oubli). Son application aux systèmes d’IA soulève des questions techniques inédites : une fois qu’un modèle a été entraîné sur des données personnelles, les informations correspondantes sont encodées dans les poids du réseau de neurones de manière diffuse et non directement accessible.

Les positions de la CNIL

La CNIL a apporté des clarifications importantes sur ce point. Elle distingue :

  • Les données d’entraînement elles-mêmes : leur suppression doit être possible et effective.
  • L’influence des données sur le modèle : la CNIL considère que l’effacement des données d’entraînement peut suffire, sans qu’il soit nécessairement requis de ré-entraîner le modèle, sous réserve que les risques de mémorisation ou d’extraction soient suffisamment faibles.

Cette position pragmatique ne dispense toutefois pas d’évaluer les risques de mémorisation et de mettre en oeuvre des mesures techniques appropriées (évaluation du risque d’extraction, tests de mémorisation, etc.).

La sécurité des traitements d’IA

L’article 32 du RGPD impose des mesures de sécurité adaptées au risque. Pour l’IA, cela couvre des risques spécifiques : attaques adversariales, vol et inversion de modèle, empoisonnement des données et fuites via la mémorisation. Le AI Act impose également des exigences de cybersécurité pour les systèmes à haut risque, renforçant cette obligation.

La mise en conformité en pratique : un processus structuré

Les étapes essentielles

La mise en conformité IA RGPD suppose une démarche méthodique :

  1. Cartographier l’ensemble des systèmes d’IA traitant des données personnelles
  2. Identifier la base légale appropriée pour chaque traitement
  3. Réaliser une AIPD pour les traitements à risque élevé
  4. Mettre en oeuvre les mesures de transparence (information, explication)
  5. Garantir l’exercice effectif des droits des personnes (accès, rectification, effacement, opposition)
  6. Documenter l’ensemble de la démarche dans le registre des traitements
  7. Assurer la sécurité des traitements tout au long du cycle de vie du système

L’outillage de la conformité

La complexité de la mise en conformité IA RGPD justifie le recours à des outils spécialisés. Des plateformes comme Legiscope permettent de structurer et d’automatiser une partie significative des démarches de conformité, en facilitant notamment la gestion du registre des traitements, la réalisation des AIPD et le suivi de l’exercice des droits. Cet outillage est particulièrement précieux dans le contexte de l’IA, où la multiplicité des traitements et la complexité technique imposent une approche rigoureuse et documentée. Pour un audit RGPD complet, cet accompagnement peut s’avérer déterminant.

Guides pratiques par outil d’IA

L’analyse ci-dessus s’applique à tous les outils d’IA. Pour une évaluation spécifique par fournisseur – DPA, transferts, sécurité, configuration recommandée – consultez nos guides dédiés :

Autres guides liés

Conclusion

La conformité IA RGPD n’est pas une option : elle constitue une obligation juridique pour toute organisation traitant des données personnelles au moyen de systèmes d’intelligence artificielle. L’articulation avec le AI Act, dont les obligations se superposent à celles du RGPD, rend l’exercice d’autant plus exigeant. Une approche méthodique, fondée sur une analyse rigoureuse des traitements, le choix éclairé des bases légales, la réalisation systématique des AIPD et la mise en oeuvre effective des droits des personnes, est indispensable.

Les recommandations de la CNIL fournissent un cadre de référence précieux, mais chaque déploiement d’IA présente des spécificités qui nécessitent une analyse au cas par cas. L’anticipation et la documentation sont les meilleurs alliés d’une conformité durable.

FAQ

Faut-il une base légale spécifique pour entraîner un modèle d’IA avec des données personnelles ?

Oui, l’entraînement d’un modèle d’IA sur des données personnelles constitue un traitement soumis à l’article 6 du RGPD. La CNIL a reconnu que l’intérêt légitime peut être une base légale appropriée, sous réserve d’une mise en balance rigoureuse. Le consentement est également possible mais pose des difficultés pratiques (corpus massifs, droit de retrait). Consultez notre guide sur le AI Act pour les obligations complémentaires.

Une AIPD est-elle obligatoire pour un système d’IA ?

Dans la grande majorité des cas, oui. Les systèmes d’IA remplissent généralement au moins deux des critères déclencheurs du Groupe de travail Article 29 (traitement à grande échelle, décision automatisée, utilisation innovante, profilage). L’AIPD doit intégrer des éléments spécifiques à l’IA : risques de biais, opacité du modèle, qualité des données d’entraînement.

L’article 22 du RGPD interdit-il les décisions automatisées par l’IA ?

L’article 22 donne le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou significatifs. Des exceptions existent (contrat, consentement explicite, droit national), mais dans tous les cas, le droit à l’intervention humaine, à l’expression de son point de vue et à la contestation doit être garanti.

Comment gérer le droit à l’effacement avec un modèle d’IA déjà entraîné ?

La CNIL distingue les données d’entraînement (leur suppression doit être possible) de l’influence encodée dans le modèle. La suppression des données d’entraînement peut suffire sans ré-entraîner le modèle, à condition que les risques de mémorisation soient faibles. Des tests de mémorisation et des évaluations du risque d’extraction doivent être documentés.

Quelles mesures de sécurité spécifiques sont nécessaires pour un système d’IA ?

Au-delà des mesures classiques de l’article 32 du RGPD, les systèmes d’IA nécessitent une protection contre les attaques adversariales, le vol et l’inversion de modèle, l’empoisonnement des données d’entraînement et les fuites par mémorisation. Le AI Act impose des exigences de cybersécurité complémentaires pour les systèmes à haut risque.