IA et RGPD : les regles applicables au traitement par intelligence artificielle
L'utilisation de l'IA pour traiter des donnees personnelles est soumise au RGPD. Bases legales, AIPD, decisions automatisees et droits des personnes.
- Le RGPD s’applique a tous les traitements de donnees personnelles par l’IA
- Les bases legales pour les traitements d’IA
- L’article 22 du RGPD : decisions automatisees et IA
- L’analyse d’impact relative a la protection des donnees (AIPD)
- La transparence et le droit a l’information
- La minimisation des donnees face au machine learning
- Les recommandations de la CNIL sur l’IA
- Le droit a l’effacement face aux modeles d’IA
- La securite des traitements d’IA
- La mise en conformite en pratique : un processus structure
- Conclusion
- FAQ
IA et RGPD : les regles applicables au traitement par intelligence artificielle
L’intelligence artificielle ne beneficie d’aucune exemption au regard du droit de la protection des donnees personnelles. Des lors qu’un systeme d’IA traite des donnees a caractere personnel – que ce soit lors de sa phase d’entrainement, de son fonctionnement operationnel ou de la generation de ses resultats --, le RGPD s’applique pleinement. Le cadre IA RGPD constitue donc un enjeu de conformite majeur pour toute organisation deployant ou developpant des solutions d’intelligence artificielle.
Cet article examine en detail les principales exigences du RGPD dans le contexte de l’IA, en integrant les recommandations de la CNIL et l’articulation avec le AI Act.
Le RGPD s’applique a tous les traitements de donnees personnelles par l’IA
Il convient d’insister sur ce point fondamental : le RGPD ne comporte aucune derogation specifique pour les traitements realises par des systemes d’intelligence artificielle. L’ensemble des principes, obligations et droits prevus par le reglement s’appliquent sans reserve.
Cela concerne notamment :
-
L’entrainement des modeles : lorsque des donnees personnelles sont utilisees pour entrainer un modele d’IA (donnees de clients, donnees comportementales, donnees de navigation, images, textes contenant des informations personnelles), ce traitement est soumis au RGPD.
-
Le fonctionnement operationnel : lorsqu’un systeme d’IA traite des donnees personnelles en entree pour produire un resultat (systeme de scoring, recommandation personnalisee, analyse de risques, detection de fraude), le RGPD s’applique.
-
Les donnees de sortie : lorsque les resultats produits par l’IA constituent eux-memes des donnees personnelles (scores, profils, predictions relatives a une personne identifiee ou identifiable), ces donnees sont soumises au RGPD.
La CNIL a confirme cette analyse dans ses recommandations publiees en 2024 sur le developpement de systemes d’IA, soulignant que la qualification de traitement de donnees personnelles doit s’apprecier largement dans le contexte de l’intelligence artificielle.
Les bases legales pour les traitements d’IA
Le choix de la base legale : une question critique
La determination de la base legale constitue l’un des enjeux les plus delicats de la conformite IA RGPD. L’article 6 du RGPD impose que tout traitement de donnees personnelles repose sur l’une des six bases legales enumerees de maniere exhaustive.
L’interet legitime (article 6.1.f)
Pour les traitements lies a l’entrainement de modeles d’IA, la CNIL a reconnu que l’interet legitime peut constituer une base legale appropriee dans certains cas, sous reserve de la realisation d’une mise en balance rigoureuse entre l’interet du responsable de traitement et les droits et libertes des personnes concernees.
Cette mise en balance doit integrer plusieurs parametres specifiques au contexte de l’IA :
- La nature et la sensibilite des donnees utilisees pour l’entrainement
- Les attentes raisonnables des personnes concernees quant a l’utilisation de leurs donnees
- Les mesures de minimisation et de pseudonymisation mises en oeuvre
- Les risques specifiques lies a la capacite du modele a memoriser ou restituer des donnees d’entrainement
- Les garanties supplementaires offertes (droit d’opposition facilite, etc.)
Le consentement (article 6.1.a)
Le consentement peut etre utilise, mais les exigences du RGPD (consentement libre, specifique, eclaire, univoque) sont difficiles a satisfaire pour des corpus massifs et heterogenes. Le droit de retrait pose un defi technique majeur : comment supprimer l’influence des donnees d’une personne sur un modele deja entraine ?
L’execution d’un contrat (article 6.1.b)
Lorsque l’IA est utilisee pour fournir un service contractuellement prevu (personnalisation, recommandation, assistance), l’execution du contrat peut servir de base legale pour le traitement operationnel. En revanche, cette base legale est generalement inadaptee pour l’entrainement du modele lui-meme, car celui-ci depasse le cadre de l’execution du contrat avec la personne concernee.
L’obligation legale et la mission d’interet public
Pour les organismes publics ou les entites soumises a des obligations legales specifiques, les bases legales des articles 6.1.c (obligation legale) et 6.1.e (mission d’interet public) peuvent s’appliquer. Cela concerne par exemple les systemes d’IA deployes par les autorites de lutte contre la fraude fiscale ou les organismes de sante publique.
L’article 22 du RGPD : decisions automatisees et IA
Le principe de l’article 22
L’article 22 du RGPD accorde aux personnes le droit de ne pas faire l’objet d’une decision fondee exclusivement sur un traitement automatise, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de maniere significative. Cette disposition est directement pertinente pour de nombreux systemes d’IA.
Le champ d’application dans le contexte de l’IA
Un systeme d’IA qui prend des decisions sans intervention humaine substantielle et qui produit des effets significatifs sur des personnes releve du champ de l’article 22. Les exemples sont nombreux :
- Un algorithme de credit scoring qui refuse automatiquement un pret
- Un systeme de tri de CV qui ecarte des candidatures sans revue humaine
- Un outil de detection de fraude qui bloque automatiquement des transactions
- Un systeme de tarification dynamique en assurance fondee sur le profilage
Les exceptions et garanties
L’article 22, paragraphe 2, prevoit trois exceptions au principe d’interdiction :
- La decision est necessaire a la conclusion ou l’execution d’un contrat
- La decision est autorisee par le droit de l’Union ou d’un Etat membre
- La decision est fondee sur le consentement explicite de la personne
Dans tous les cas, des garanties appropriees doivent etre mises en place, incluant au minimum :
- Le droit d’obtenir une intervention humaine
- Le droit d’exprimer son point de vue
- Le droit de contester la decision
L’articulation avec le AI Act
Le AI Act impose egalement des exigences de controle humain pour les systemes d’IA a haut risque (article 14). Ces exigences se cumulent avec celles de l’article 22 du RGPD, creant un cadre renforce pour les systemes d’IA decisionnels traitant des donnees personnelles. La convergence de ces deux textes plaide pour la mise en place de mecanismes robustes de supervision humaine.
L’analyse d’impact relative a la protection des donnees (AIPD)
Quand une AIPD est-elle requise pour un systeme d’IA ?
L’article 35 du RGPD impose la realisation d’une AIPD lorsqu’un traitement est susceptible d’engendrer un risque eleve pour les droits et libertes des personnes physiques. Dans le contexte de l’IA, l’AIPD sera generalement obligatoire en presence d’au moins deux des criteres suivants du Groupe de travail Article 29 (WP 248) :
- Evaluation ou notation (scoring, profilage)
- Prise de decision automatisee avec effet juridique ou similaire
- Surveillance systematique
- Donnees sensibles ou a caractere hautement personnel
- Traitement a grande echelle
- Croisement ou combinaison de jeux de donnees
- Donnees relatives a des personnes vulnerables
- Utilisation innovante ou application de nouvelles solutions technologiques
- Traitement empechant l’exercice d’un droit ou le benefice d’un service
Dans la pratique, la plupart des systemes d’IA traitant des donnees personnelles rempliront au moins deux de ces criteres, rendant l’AIPD quasi systematique. Pour un guide detaille sur la realisation d’une AIPD dans le contexte specifique de l’intelligence artificielle, consultez notre article dedie : AIPD pour l’IA : quand et comment realiser une analyse d’impact.
Les elements specifiques a l’IA dans l’AIPD
L’AIPD d’un systeme d’IA doit integrer des elements d’analyse propres a cette technologie :
- L’evaluation des risques de biais algorithmiques et de discrimination
- L’analyse de l’opacite du modele et ses implications pour les droits des personnes
- L’examen de la qualite des donnees d’entrainement et de leur representativite
- L’evaluation des risques de memorisation de donnees personnelles par le modele
- Les mesures de robustesse et de securite face aux attaques adversariales
La transparence et le droit a l’information
Les articles 13 et 14 du RGPD imposent d’informer les personnes sur l’existence d’un traitement automatise, de fournir des informations utiles sur la logique sous-jacente du systeme et de communiquer sur l’importance et les consequences du traitement. L’exigence de transparence n’impose pas de divulguer le code source, mais suppose de fournir des explications comprehensibles sur les facteurs pris en compte et les effets potentiels.
L’article 15 etend le droit d’acces aux informations sur la logique sous-jacente et les consequences du traitement automatise, ce qui implique l’integration de mecanismes d’explicabilite des la conception du systeme.
La minimisation des donnees face au machine learning
Le paradoxe de la minimisation
Le principe de minimisation des donnees (article 5.1.c du RGPD) impose que les donnees collectees soient adequates, pertinentes et limitees a ce qui est necessaire au regard des finalites du traitement. Or, les approches de machine learning reposent frequemment sur le traitement de volumes massifs de donnees, ce qui cree une tension apparente avec ce principe.
Les solutions pratiques
La CNIL a identifie plusieurs pistes pour concilier performance du modele et minimisation des donnees :
- L’anonymisation en amont : lorsque les donnees personnelles ne sont pas necessaires a l’entrainement, l’anonymisation prealable permet de sortir du champ du RGPD.
- La pseudonymisation : le remplacement des identifiants directs par des pseudonymes reduit les risques sans degrader necessairement la performance du modele.
- L’apprentissage federe (federated learning) : les donnees restent sur les terminaux des utilisateurs et seuls les parametres du modele circulent, limitant l’exposition des donnees personnelles.
- La confidentialite differentielle (differential privacy) : l’ajout de bruit statistique aux donnees d’entrainement limite la possibilite de reconstituer des donnees individuelles a partir du modele.
- La selection rigoureuse des variables : l’analyse de la pertinence de chaque variable au regard de la finalite du traitement permet d’ecarter les donnees non necessaires.
Les recommandations de la CNIL sur l’IA
La CNIL a fait de l’intelligence artificielle un axe strategique, avec un plan d’action couvrant la comprehension des systemes d’IA, la publication de recommandations pratiques, l’accompagnement des acteurs et les controles. Ses fiches pratiques couvrent la definition de la finalite, le choix de la base legale, la constitution des jeux de donnees d’entrainement, la gestion des droits, l’AIPD et la securite. Ces recommandations constituent une reference essentielle pour toute demarche de mise en conformite IA RGPD.
Le droit a l’effacement face aux modeles d’IA
Le defi technique de l’effacement
L’article 17 du RGPD consacre le droit a l’effacement (droit a l’oubli). Son application aux systemes d’IA souleve des questions techniques inedites : une fois qu’un modele a ete entraine sur des donnees personnelles, les informations correspondantes sont encodees dans les poids du reseau de neurones de maniere diffuse et non directement accessible.
Les positions de la CNIL
La CNIL a apporte des clarifications importantes sur ce point. Elle distingue :
- Les donnees d’entrainement elles-memes : leur suppression doit etre possible et effective.
- L’influence des donnees sur le modele : la CNIL considere que l’effacement des donnees d’entrainement peut suffire, sans qu’il soit necessairement requis de re-entrainer le modele, sous reserve que les risques de memorisation ou d’extraction soient suffisamment faibles.
Cette position pragmatique ne dispense toutefois pas d’evaluer les risques de memorisation et de mettre en oeuvre des mesures techniques appropriees (evaluation du risque d’extraction, tests de memorisation, etc.).
La securite des traitements d’IA
L’article 32 du RGPD impose des mesures de securite adaptees au risque. Pour l’IA, cela couvre des risques specifiques : attaques adversariales, vol et inversion de modele, empoisonnement des donnees et fuites via la memorisation. Le AI Act impose egalement des exigences de cybersecurite pour les systemes a haut risque, renforçant cette obligation.
La mise en conformite en pratique : un processus structure
Les etapes essentielles
La mise en conformite IA RGPD suppose une demarche methodique :
- Cartographier l’ensemble des systemes d’IA traitant des donnees personnelles
- Identifier la base legale appropriee pour chaque traitement
- Realiser une AIPD pour les traitements a risque eleve
- Mettre en oeuvre les mesures de transparence (information, explication)
- Garantir l’exercice effectif des droits des personnes (acces, rectification, effacement, opposition)
- Documenter l’ensemble de la demarche dans le registre des traitements
- Assurer la securite des traitements tout au long du cycle de vie du systeme
L’outillage de la conformite
La complexite de la mise en conformite IA RGPD justifie le recours a des outils specialises. Des plateformes comme Legiscope permettent de structurer et d’automatiser une partie significative des demarches de conformite, en facilitant notamment la gestion du registre des traitements, la realisation des AIPD et le suivi de l’exercice des droits. Cet outillage est particulierement precieux dans le contexte de l’IA, ou la multiplicite des traitements et la complexite technique imposent une approche rigoureuse et documentee. Pour un audit RGPD complet, cet accompagnement peut s’averer determinant.
Conclusion
La conformite IA RGPD n’est pas une option : elle constitue une obligation juridique pour toute organisation traitant des donnees personnelles au moyen de systemes d’intelligence artificielle. L’articulation avec le AI Act, dont les obligations se superposent a celles du RGPD, rend l’exercice d’autant plus exigeant. Une approche methodique, fondee sur une analyse rigoureuse des traitements, le choix eclaire des bases legales, la realisation systematique des AIPD et la mise en oeuvre effective des droits des personnes, est indispensable.
Les recommandations de la CNIL fournissent un cadre de reference precieux, mais chaque deploiement d’IA presente des specificites qui necessitent une analyse au cas par cas. L’anticipation et la documentation sont les meilleurs allies d’une conformite durable.
FAQ
Faut-il une base legale specifique pour entrainer un modele d’IA avec des donnees personnelles ?
Oui, l’entrainement d’un modele d’IA sur des donnees personnelles constitue un traitement soumis a l’article 6 du RGPD. La CNIL a reconnu que l’interet legitime peut etre une base legale appropriee, sous reserve d’une mise en balance rigoureuse. Le consentement est egalement possible mais pose des difficultes pratiques (corpus massifs, droit de retrait). Consultez notre guide sur le AI Act pour les obligations complementaires.
Une AIPD est-elle obligatoire pour un systeme d’IA ?
Dans la grande majorite des cas, oui. Les systemes d’IA remplissent generalement au moins deux des criteres declencheurs du Groupe de travail Article 29 (traitement a grande echelle, decision automatisee, utilisation innovante, profilage). L’AIPD doit integrer des elements specifiques a l’IA : risques de biais, opacite du modele, qualite des donnees d’entrainement.
L’article 22 du RGPD interdit-il les decisions automatisees par l’IA ?
L’article 22 donne le droit de ne pas faire l’objet d’une decision fondee exclusivement sur un traitement automatise produisant des effets juridiques ou significatifs. Des exceptions existent (contrat, consentement explicite, droit national), mais dans tous les cas, le droit a l’intervention humaine, a l’expression de son point de vue et a la contestation doit etre garanti.
Comment gerer le droit a l’effacement avec un modele d’IA deja entraine ?
La CNIL distingue les donnees d’entrainement (leur suppression doit etre possible) de l’influence encodee dans le modele. La suppression des donnees d’entrainement peut suffire sans re-entrainer le modele, a condition que les risques de memorisation soient faibles. Des tests de memorisation et des evaluations du risque d’extraction doivent etre documentes.
Quelles mesures de securite specifiques sont necessaires pour un systeme d’IA ?
Au-dela des mesures classiques de l’article 32 du RGPD, les systemes d’IA necessitent une protection contre les attaques adversariales, le vol et l’inversion de modele, l’empoisonnement des donnees d’entrainement et les fuites par memorisation. Le AI Act impose des exigences de cybersecurite complementaires pour les systemes a haut risque.
Restez informe sur la conformite
Recevez nos analyses et guides pratiques sur le RGPD, NIS2, AI Act et plus. Rejoint par 52 000+ professionnels.