AIPD pour l'IA : quand et comment realiser une analyse d'impact
Les systemes d'IA traitant des donnees personnelles necessitent souvent une AIPD. Guide pratique : criteres, methodologie et modele.
AIPD pour l’IA : quand et comment realiser une analyse d’impact
L’analyse d’impact relative a la protection des donnees (AIPD) est l’un des instruments centraux du RGPD pour maitriser les risques que les traitements de donnees personnelles font peser sur les droits et libertes des personnes. Dans le contexte de l’intelligence artificielle, cet exercice prend une dimension particuliere : les systemes d’IA presentent des risques specifiques – opacite algorithmique, biais, traitement a grande echelle, effets en cascade – qui exigent une analyse approfondie et adaptee.
Cet article examine les criteres rendant une AIPD intelligence artificielle obligatoire, la methodologie a suivre, les risques propres a l’IA a integrer dans l’analyse, et l’articulation avec l’evaluation des droits fondamentaux prevue par le AI Act.
Quand l’AIPD est-elle obligatoire pour un systeme d’IA ?
Le cadre general de l’article 35 du RGPD
L’article 35, paragraphe 1, du RGPD impose la realisation d’une AIPD lorsqu’un type de traitement, en particulier par le recours a de nouvelles technologies, est susceptible d’engendrer un risque eleve pour les droits et libertes des personnes physiques.
L’article 35, paragraphe 3, enumere trois cas dans lesquels l’AIPD est obligatoire :
-
L’evaluation systematique et approfondie d’aspects personnels, fondee sur un traitement automatise, y compris le profilage, et sur la base de laquelle sont prises des decisions produisant des effets juridiques ou affectant de maniere significative la personne concernee.
-
Le traitement a grande echelle de categories particulieres de donnees (article 9) ou de donnees relatives aux condamnations penales (article 10).
-
La surveillance systematique a grande echelle d’une zone accessible au public.
Les criteres du Groupe de travail Article 29
Les lignes directrices du WP 248 identifient neuf criteres permettant d’evaluer si un traitement presente un risque eleve. Le Groupe de travail recommande de considerer qu’un traitement repondant a au moins deux de ces criteres necessite une AIPD :
- Evaluation ou notation : scoring, profilage, prevision
- Prise de decision automatisee avec effet significatif : decisions produisant des effets juridiques ou similaires
- Surveillance systematique : observation, suivi, controle des personnes
- Donnees sensibles ou a caractere hautement personnel : donnees de sante, biometeriques, genetiques, opinions politiques, donnees financieres, donnees de localisation
- Traitement a grande echelle : volume de donnees, nombre de personnes, etendue geographique, duree
- Croisement ou combinaison de jeux de donnees : enrichissement, fusion de bases de donnees
- Donnees relatives a des personnes vulnerables : enfants, salaries, patients, personnes agees
- Utilisation innovante ou application de nouvelles solutions technologiques : IA, biometrie, IoT
- Traitement empechant l’exercice d’un droit ou le benefice d’un service : controle d’acces, filtrage
Pourquoi les systemes d’IA declenchent quasi systematiquement l’obligation d’AIPD
Dans la pratique, un systeme d’IA traitant des donnees personnelles satisfait presque toujours au moins deux des criteres ci-dessus :
- Le critere 8 (utilisation innovante) est rempli par nature pour la plupart des systemes d’IA, le recours a l’intelligence artificielle constituant en soi une technologie nouvelle au sens du RGPD.
- Le critere 1 (evaluation ou notation) est presente des lors que le systeme d’IA produit des scores, des classements ou des predictions relatives a des personnes.
- Le critere 2 (decision automatisee) est rempli lorsque les resultats du systeme influencent des decisions concernant des personnes.
- Le critere 5 (grande echelle) est frequemment satisfait, les systemes d’IA traitant generalement des volumes importants de donnees.
Par consequent, la realisation d’une AIPD doit etre consideree comme la regle plutot que l’exception pour les systemes d’intelligence artificielle traitant des donnees personnelles.
La liste de la CNIL
La CNIL a publie une liste des types de traitements pour lesquels une AIPD est requise (deliberation n 2018-327 du 11 octobre 2018). Plusieurs categories de cette liste correspondent directement a des usages courants de l’IA :
- Les traitements de profilage faisant appel a des donnees provenant de sources externes
- Les traitements de donnees biometriques aux fins d’identification des personnes
- Les traitements utilisant des donnees de localisation a grande echelle
- Les traitements ayant pour finalite la surveillance systematique des activites des salaries
Les risques specifiques de l’IA a integrer dans l’AIPD
Une AIPD intelligence artificielle ne peut se contenter d’appliquer une grille d’analyse standard. Elle doit integrer les risques propres aux systemes d’IA, qui different qualitativement des risques lies aux traitements classiques.
Le risque de biais algorithmique et de discrimination
Les systemes d’IA peuvent reproduire voire amplifier les biais de leurs donnees d’entrainement : biais de selection (donnees non representatives), biais historiques (reproduction de discriminations passees), biais de proxy (utilisation de variables correlees a des criteres proteges). L’AIPD doit analyser les donnees d’entrainement, evaluer leur representativite, documenter les tests de biais realises et les mesures correctives prevues.
L’opacite algorithmique
Les reseaux de neurones profonds fonctionnent souvent comme des “boites noires”, rendant difficile la fourniture d’explications significatives (articles 13-15 du RGPD), le controle humain effectif (article 22) et la detection de comportements discriminatoires. L’AIPD doit evaluer le degre d’explicabilite du modele et les mesures compensatoires (IA explicable, documentation, audits).
Le risque d’echelle, de memorisation et de securite
Les systemes d’IA deployes a grande echelle peuvent generer des consequences massives en cas d’erreur systematique. L’AIPD doit evaluer le nombre de personnes affectees, la severite des consequences et les mecanismes de detection rapide des dysfonctionnements.
Les modeles d’IA – en particulier les LLM – peuvent memoriser et restituer des donnees d’entrainement. L’AIPD doit examiner ce risque et les techniques de protection mises en oeuvre (confidentialite differentielle, filtrage des sorties, tests de memorisation).
Enfin, les systemes d’IA sont vulnerables a des attaques specifiques : attaques adversariales, inversion de modele, empoisonnement des donnees d’entrainement et extraction de modele, autant de risques a integrer dans l’analyse.
Methodologie de l’AIPD pour les systemes d’IA
Phase 1 : description du traitement
La premiere etape consiste a decrire le systeme d’IA et le traitement de donnees personnelles qu’il realise. Cette description doit couvrir :
- La finalite du systeme : quel objectif le systeme d’IA poursuit-il ? Cette finalite est-elle proportionnee ?
- Les donnees traitees : quelles categories de donnees personnelles sont utilisees en entree, en entrainement et en sortie ? Quels sont les volumes ? Quelles sont les sources ?
- Le fonctionnement du modele : quelle architecture est utilisee ? Quel type d’apprentissage ? Quelle est la frequence de re-entrainement ?
- Les acteurs impliques : qui est fournisseur du systeme, deployer, responsable de traitement, sous-traitant ? Quels transferts de donnees sont realises ?
- Les destinataires des resultats : qui a acces aux sorties du systeme et dans quel but ?
- La duree de conservation : combien de temps les donnees d’entrainement, les logs et les resultats sont-ils conserves ?
Phase 2 : evaluation de la necessite et de la proportionnalite
Cette phase examine la conformite du traitement aux principes fondamentaux du RGPD :
- Licite : la base legale retenue est-elle appropriee ? (voir notre article IA et RGPD)
- Finalite : le traitement est-il strictement necessaire a la finalite poursuivie ? L’IA est-elle le moyen le plus adapte ?
- Minimisation : les donnees traitees sont-elles limitees au strict necessaire ? Des techniques de minimisation (anonymisation, pseudonymisation, selection de variables) sont-elles mises en oeuvre ?
- Exactitude : les donnees d’entrainement sont-elles fiables et a jour ?
- Limitation de conservation : les durees de conservation sont-elles proportionnees ?
- Information et droits des personnes : les mecanismes d’information, d’acces, de rectification, d’effacement et d’opposition sont-ils effectivement mis en oeuvre ?
Phase 3 : evaluation des risques
Cette phase constitue le coeur de l’AIPD intelligence artificielle. Elle impose d’identifier les risques specifiques pour les droits et libertes des personnes et d’evaluer leur gravite et leur vraisemblance. L’analyse doit couvrir les evenements redoutes classiques (acces illegitime, modification non desiree, disparition des donnees) mais aussi les risques propres a l’IA : biais et discrimination, opacite empechant l’exercice des droits, decisions erronees a grande echelle, memorisation et restitution de donnees personnelles, attaques adversariales et empoisonnement des donnees.
Pour chaque risque identifie, l’AIPD doit evaluer la gravite du prejudice potentiel et la vraisemblance de sa materialisation.
Phase 4 : mesures de mitigation
Pour chaque risque identifie, l’AIPD doit definir des mesures appropriees. Les leviers specifiques a l’IA incluent : la gouvernance des donnees (selection, representativite, documentation de provenance), les techniques de protection (anonymisation, pseudonymisation, confidentialite differentielle), les mecanismes d’explicabilite (SHAP, LIME), le controle des biais (tests, audits reguliers), la supervision humaine (revue, escalade), la securite (defense adversariale, detection d’anomalies) et le suivi continu (monitoring de performance, detection de derive).
Phase 5 : documentation et validation
L’AIPD doit etre formalisee dans un document structure, incluant l’ensemble des elements analyses. Ce document doit etre :
- Valide par le responsable de traitement
- Soumis pour avis au delegue a la protection des donnees (DPO), le cas echeant
- Conserve et mis a jour tout au long du cycle de vie du systeme
- Transmis a la CNIL en cas de consultation prealable (article 36 du RGPD), lorsque les risques residuels demeurent eleves
L’articulation avec l’evaluation des droits fondamentaux du AI Act
L’evaluation prevue par le AI Act
Le AI Act introduit, a son article 27, une obligation specifique pour les deployers de systemes d’IA a haut risque : la realisation d’une evaluation de l’impact sur les droits fondamentaux (Fundamental Rights Impact Assessment – FRIA). Cette obligation s’applique aux organismes de droit public et aux entites privees fournissant des services publics, ainsi qu’aux deployers de systemes de credit scoring et d’evaluation des risques en assurance.
Les differences et la complementarite avec la FRIA
L’AIPD (RGPD) se concentre sur la protection des donnees personnelles, tandis que la FRIA (AI Act) elargit l’analyse a l’ensemble des droits fondamentaux (non-discrimination, egalite, liberte d’expression, dignite). L’AIPD est declenchee par un risque eleve pour les personnes concernees ; la FRIA est declenchee par le deploiement d’un systeme a haut risque. Le responsable de l’AIPD est le responsable de traitement ; celui de la FRIA est le deployer.
Lorsqu’un systeme d’IA a haut risque traite des donnees personnelles, les deux obligations se cumulent. Le AI Act prevoit explicitement (article 27, paragraphe 4) que la FRIA peut s’appuyer sur l’AIPD en la completant. Il est donc recommande de mener les deux analyses de maniere coordonnee, en utilisant l’AIPD comme socle.
Conseils pratiques pour une AIPD IA efficace
Impliquer les bonnes parties prenantes
L’AIPD d’un systeme d’IA ne peut etre realisee par le seul juriste ou le seul DPO. Elle necessite la collaboration de multiples expertises :
- Equipes techniques : data scientists, ingenieurs ML, pour la description du modele et l’evaluation des risques techniques.
- Equipes metier : pour la definition de la finalite, l’analyse de proportionnalite et l’identification des impacts concrets.
- DPO : pour la supervision de la demarche et la verification de la conformite juridique.
- Equipes securite : pour l’evaluation des risques de securite et la definition des mesures de protection.
Anticiper et documenter des la conception
L’AIPD doit idealement etre initiee des les premieres phases de conception du systeme d’IA (privacy by design). La documentation des choix de conception, des donnees d’entrainement utilisees et des tests realises facilite considerablement la realisation ulterieure de l’AIPD et constitue un element de preuve precieux en cas de controle.
Utiliser des outils adaptes
La realisation d’une AIPD intelligence artificielle est un exercice structurellement complexe qui beneficie d’un outillage adapte. Des plateformes comme Legiscope proposent des frameworks structures pour la realisation et le suivi des AIPD, incluant des modeles adaptes aux specificites de l’IA. L’utilisation d’un tel outil permet de structurer la demarche, d’assurer la completude de l’analyse et de faciliter les mises a jour ulterieures. Legiscope permet egalement de centraliser la documentation de conformite et de coordonner l’AIPD avec les autres obligations du RGPD (registre des traitements, gestion des droits, etc.).
Mettre a jour l’AIPD dans le temps
L’AIPD n’est pas un exercice ponctuel. Le RGPD impose de la reviser lorsque le risque presente par le traitement evolue. Dans le contexte de l’IA, plusieurs evenements doivent declencher une mise a jour :
- Modification des donnees d’entrainement ou re-entrainement du modele
- Evolution du perimetre d’utilisation du systeme
- Detection d’un biais ou d’une derive significative
- Changement de la reglementation applicable (notamment l’entree en application progressive du AI Act)
- Incident de securite affectant le systeme
- Retour d’experience significatif sur le fonctionnement du systeme
Conclusion
L’AIPD intelligence artificielle est un exercice exigeant mais indispensable. La quasi-totalite des systemes d’IA traitant des donnees personnelles necessitent une analyse d’impact, et la specificite des risques de l’IA – biais, opacite, echelle, memorisation – impose une methodologie adaptee qui depasse le cadre classique de l’AIPD.
L’entree en application progressive du AI Act ajoute une couche supplementaire d’obligations, avec la FRIA qui vient completer l’AIPD pour les systemes a haut risque. Les organisations ont tout interet a mener ces deux exercices de maniere coordonnee, en s’appuyant sur des outils adaptes et en impliquant l’ensemble des parties prenantes concernees.
Pour approfondir le cadre juridique general de l’IA et de la protection des donnees, consultez notre article : IA et RGPD : les regles applicables.
Restez informe sur la conformite
Recevez nos analyses et guides pratiques sur le RGPD, NIS2, AI Act et plus. Rejoint par 52 000+ professionnels.