Donneespersonnelles.fr

Plateforme de veille en conformite numerique

Vendredi 17 avril 2026
AI Act

AIPD pour l'IA : quand et comment réaliser une analyse d'impact

Les systèmes d'IA traitant des données personnelles nécessitent souvent une AIPD. Guide pratique : critères, méthodologie et modèle.

L’analyse d’impact relative à la protection des données (AIPD) est l’un des instruments centraux du RGPD pour maîtriser les risques que les traitements de données personnelles font peser sur les droits et libertés des personnes. Dans le contexte de l’intelligence artificielle, cet exercice prend une dimension particulière : les systèmes d’IA présentent des risques spécifiques – opacite algorithmique, biais, traitement à grande échelle, effets en cascade – qui exigent une analyse approfondie et adaptée.

Cet article examiné les critères rendant une AIPD intelligence artificielle obligatoire, la méthodologie a suivre, les risques propres à l’IA à intégrer dans l’analyse, et l’articulation avec l’évaluation des droits fondamentaux prévue par le AI Act.

Quand l’AIPD est-elle obligatoire pour un système d’IA ?

Le cadre général de l’article 35 du RGPD

L’article 35, paragraphe 1, du RGPD impose la réalisation d’une AIPD lorsqu’un type de traitement, en particulier par le recours à de nouvelles technologies, est susceptible d’engendrer un risque élevé pour les droits et libertés des personnes physiques. Pour un guide complet sur la méthodologie générale de l’AIPD en dehors du contexte spécifique de l’IA, consultez notre guide AIPD.

L’article 35, paragraphe 3, énumère trois cas dans lesquels l’AIPD est obligatoire :

  1. L’évaluation systématique et approfondie d’aspects personnels, fondée sur un traitement automatisé, y compris le profilage, et sur la base de laquelle sont prises des décisions produisant des effets juridiques ou affectant de manière significative la personne concernée.

  2. Le traitement à grande échelle de catégories particulières de données (article 9) ou de données relatives aux condamnations pénales (article 10).

  3. La surveillance systématique à grande échelle d’une zone accessible au public.

Les critères du Groupe de travail Article 29

Les lignes directrices du WP 248 identifient neuf critères permettant d’évaluer si un traitement presente un risque élevé. Le Groupe de travail recommande de considérer qu’un traitement répondant a au moins deux de ces critères nécessite une AIPD :

  1. Évaluation ou notation : scoring, profilage, prevision
  2. Prise de décision automatisée avec effet significatif : décisions produisant des effets juridiques ou similaires
  3. Surveillance systématique : observation, suivi, contrôle des personnes
  4. Données sensibles ou à caractère hautement personnel : données de santé, biometeriques, génétiques, opinions politiques, données financières, données de localisation
  5. Traitement à grande échelle : volume de données, nombre de personnes, étendue géographique, durée
  6. Croisement ou combinaison de jeux de données : enrichissement, fusion de bases de données
  7. Données relatives à des personnes vulnérables : enfants, salariés, patients, personnes âgées
  8. Utilisation innovante ou application de nouvelles solutions technologiques : IA, biométrie, IoT
  9. Traitement empêchant l’exercice d’un droit ou le bénéfice d’un service : contrôle d’accès, filtrage

Pourquoi les systèmes d’IA declenchent quasi systématiquement l’obligation d’AIPD

Dans la pratique, un système d’IA traitant des données personnelles satisfait presque toujours au moins deux des critères ci-dessus :

  • Le critère 8 (utilisation innovante) est rempli par nature pour la plupart des systèmes d’IA, le recours à l’intelligence artificielle constituant en soi une technologie nouvelle au sens du RGPD.
  • Le critère 1 (évaluation ou notation) est presente dès lors que le système d’IA produit des scores, des classements ou des prédictions relatives à des personnes.
  • Le critère 2 (décision automatisée) est rempli lorsque les résultats du système influencent des décisions concernant des personnes.
  • Le critère 5 (grande échelle) est fréquemment satisfait, les systèmes d’IA traitant généralement des volumes importants de données.

Par conséquent, la réalisation d’une AIPD doit être considérée comme la règle plutôt que l’exception pour les systèmes d’intelligence artificielle traitant des données personnelles.

La liste de la CNIL

La CNIL a publié une liste des types de traitements pour lesquels une AIPD est requise (délibération n 2018-327 du 11 octobre 2018). Plusieurs catégories de cette liste correspondent directement à des usages courants de l’IA :

  • Les traitements de profilage faisant appel à des données provenant de sources externes
  • Les traitements de données biométriques aux fins d’identification des personnes
  • Les traitements utilisant des données de localisation à grande échelle
  • Les traitements ayant pour finalité la surveillance systématique des activités des salariés

Les risques spécifiques de l’IA à intégrer dans l’AIPD

Une AIPD intelligence artificielle ne peut se contenter d’appliquer une grille d’analyse standard. Elle doit intégrer les risques propres aux systèmes d’IA, qui différent qualitativement des risques liés aux traitements classiques.

Le risque de biais algorithmique et de discrimination

Les systèmes d’IA peuvent reproduire voire amplifier les biais de leurs données d’entraînement : biais de sélection (données non représentatives), biais historiques (reproduction de discriminations passées), biais de proxy (utilisation de variables correlees à des critères protégés). L’AIPD doit analyser les données d’entraînement, évaluer leur representativite, documenter les tests de biais réalisés et les mesures correctives prévues.

L’opacite algorithmique

Les réseaux de neurones profonds fonctionnent souvent comme des “boîtes noires”, rendant difficile la fourniture d’explications significatives (articles 13-15 du RGPD), le contrôle humain effectif (article 22) et la détection de comportements discriminatoires. L’AIPD doit évaluer le degré d’explicabilité du modèle et les mesures compensatoires (IA explicable, documentation, audits).

Le risque d’échelle, de mémorisation et de sécurité

Les systèmes d’IA déployés à grande échelle peuvent générer des conséquences massives en cas d’erreur systématique. L’AIPD doit évaluer le nombre de personnes affectées, la sévérité des conséquences et les mécanismes de détection rapide des dysfonctionnements.

Les modèles d’IA – en particulier les LLM – peuvent memoriser et restituer des données d’entraînement. L’AIPD doit examiner ce risque et les techniques de protection mises en oeuvre (confidentialité differentielle, filtrage des sorties, tests de mémorisation).

Enfin, les systèmes d’IA sont vulnérables à des attaques spécifiques : attaques adversariales, inversion de modèle, empoisonnement des données d’entraînement et extraction de modèle, autant de risques à intégrer dans l’analyse.

Méthodologie de l’AIPD pour les systèmes d’IA

Phase 1 : description du traitement

La première étape consiste à décrire le système d’IA et le traitement de données personnelles qu’il realise. Cette description doit couvrir :

  • La finalité du système : quel objectif le système d’IA poursuit-il ? Cette finalité est-elle proportionnée ?
  • Les données traitées : quelles catégories de données personnelles sont utilisées en entrée, en entraînement et en sortie ? Quels sont les volumes ? Quelles sont les sources ?
  • Le fonctionnement du modèle : quelle architecture est utilisée ? Quel type d’apprentissage ? Quelle est la fréquence de ré-entraînement ?
  • Les acteurs impliqués : qui est fournisseur du système, déployer, responsable de traitement, sous-traitant ? Quels transferts de données sont réalisés ?
  • Les destinataires des résultats : qui a accès aux sorties du système et dans quel but ?
  • La durée de conservation : combien de temps les données d’entraînement, les logs et les résultats sont-ils conservés ?

Phase 2 : évaluation de la nécessité et de la proportionnalité

Cette phase examiné la conformité du traitement aux principes fondamentaux du RGPD :

  • Licite : la base légale retenue est-elle appropriée ? (voir notre article IA et RGPD)
  • Finalité : le traitement est-il strictement nécessaire à la finalité poursuivie ? L’IA est-elle le moyen le plus adapte ?
  • Minimisation : les données traitées sont-elles limitées au strict nécessaire ? Des techniques de minimisation (anonymisation, pseudonymisation, sélection de variables) sont-elles mises en oeuvre ?
  • Exactitude : les données d’entraînement sont-elles fiables et à jour ?
  • Limitation de conservation : les durées de conservation sont-elles proportionnées ?
  • Information et droits des personnes : les mécanismes d’information, d’accès, de rectification, d’effacement et d’opposition sont-ils effectivement mis en oeuvre ?

Phase 3 : évaluation des risques

Cette phase constitue le coeur de l’AIPD intelligence artificielle. Elle impose d’identifier les risques spécifiques pour les droits et libertés des personnes et d’évaluer leur gravité et leur vraisemblance. L’analyse doit couvrir les évènements redoutes classiques (accès illégitime, modification non desiree, disparition des données) mais aussi les risques propres à l’IA : biais et discrimination, opacite empêchant l’exercice des droits, décisions erronees à grande échelle, mémorisation et restitution de données personnelles, attaques adversariales et empoisonnement des données.

Pour chaque risque identifie, l’AIPD doit évaluer la gravité du préjudice potentiel et la vraisemblance de sa matérialisation.

Phase 4 : mesures de mitigation

Pour chaque risque identifie, l’AIPD doit définir des mesures appropriées. Les leviers spécifiques à l’IA incluent : la gouvernance des données (sélection, representativite, documentation de provenance), les techniques de protection (anonymisation, pseudonymisation, confidentialité differentielle), les mécanismes d’explicabilité (SHAP, LIME), le contrôle des biais (tests, audits réguliers), la supervision humaine (revue, escalade), la sécurité (défense adversariale, détection d’anomalies) et le suivi continu (monitoring de performance, détection de dérive).

Phase 5 : documentation et validation

L’AIPD doit être formalisée dans un document structuré, incluant l’ensemble des éléments analysés. Ce document doit être :

  • Valide par le responsable de traitement
  • Soumis pour avis au délégué à la protection des données (DPO), le cas échéant
  • Conserve et mis à jour tout au long du cycle de vie du système
  • Transmis à la CNIL en cas de consultation préalable (article 36 du RGPD), lorsque les risques residuels demeurent élevés

L’articulation avec l’évaluation des droits fondamentaux du AI Act

L’évaluation prévue par le AI Act

Le AI Act introduit, à son article 27, une obligation spécifique pour les deployers de systèmes d’IA à haut risque : la réalisation d’une évaluation de l’impact sur les droits fondamentaux (Fundamental Rights Impact Assessment – FRIA). Cette obligation s’appliqué aux organismes de droit public et aux entités privées fournissant des services publics, ainsi qu’aux deployers de systèmes de crédit scoring et d’évaluation des risques en assurance.

Les différences et la complementarite avec la FRIA

L’AIPD (RGPD) se concentre sur la protection des données personnelles, tandis que la FRIA (AI Act) elargit l’analyse à l’ensemble des droits fondamentaux (non-discrimination, égalité, liberté d’expression, dignité). L’AIPD est déclenchée par un risque élevé pour les personnes concernées ; la FRIA est déclenchée par le déploiement d’un système à haut risque. Le responsable de l’AIPD est le responsable de traitement ; celui de la FRIA est le déployeur.

Lorsqu’un système d’IA à haut risque traité des données personnelles, les deux obligations se cumulent. Le AI Act prévoit explicitement (article 27, paragraphe 4) que la FRIA peut s’appuyer sur l’AIPD en la completant. Il est donc recommande de mener les deux analysés de manière coordonnée, en utilisant l’AIPD comme socle.

Conseils pratiques pour une AIPD IA efficace

Impliquer les bonnes parties prenantes

L’AIPD d’un système d’IA ne peut être réalisée par le seul juriste ou le seul DPO. Elle nécessite la collaboration de multiples expertises :

  • Equipes techniques : data scientists, ingénieurs ML, pour la description du modèle et l’évaluation des risques techniques.
  • Equipes métier : pour la définition de la finalité, l’analyse de proportionnalité et l’identification des impacts concrets.
  • DPO : pour la supervision de la démarche et la vérification de la conformité juridique.
  • Equipes sécurité : pour l’évaluation des risques de sécurité et la définition des mesures de protection.

Anticiper et documenter des la conception

L’AIPD doit idéalement être initiée dès les premières phases de conception du système d’IA (privacy by design). La documentation des choix de conception, des données d’entraînement utilisées et des tests réalisés facilité considérablement la réalisation ultérieure de l’AIPD et constitue un élément de preuve précieux en cas de contrôle.

Utiliser des outils adaptés

La réalisation d’une AIPD intelligence artificielle est un exercice structurellement complexe qui bénéficie d’un outillage adapte. Des plateformes comme Legiscope proposent des frameworks structures pour la réalisation et le suivi des AIPD, incluant des modèles adaptés aux spécificités de l’IA. L’utilisation d’un tel outil permet de structurer la démarche, d’assurer la completude de l’analyse et de faciliter les mises à jour ultérieures. Legiscope permet également de centraliser la documentation de conformité et de coordonner l’AIPD avec les autres obligations du RGPD (registre des traitements, gestion des droits, etc.).

Mettre à jour l’AIPD dans le temps

L’AIPD n’est pas un exercice ponctuel. Le RGPD impose de la réviser lorsque le risque presente par le traitement évolue. Dans le contexte de l’IA, plusieurs évènements doivent déclencher une mise à jour :

  • Modification des données d’entraînement ou ré-entraînement du modèle
  • Evolution du périmètre d’utilisation du système
  • Detection d’un biais ou d’une dérive significative
  • Changement de la réglementation applicable (notamment l’entrée en application progressive du AI Act)
  • Incident de sécurité affectant le système
  • Retour d’expérience significatif sur le fonctionnement du système

Conclusion

L’AIPD intelligence artificielle est un exercice exigeant mais indispensable. La quasi-totalité des systèmes d’IA traitant des données personnelles nécessitent une analyse d’impact, et la spécificité des risques de l’IA – biais, opacite, échelle, mémorisation – impose une méthodologie adaptée qui dépasse le cadre classique de l’AIPD.

L’entrée en application progressive du AI Act ajouté une couche supplémentaire d’obligations, avec la FRIA qui vient compléter l’AIPD pour les systèmes à haut risque. Les organisations ont tout intérêt a mener ces deux exercices de manière coordonnée, en s’appuyant sur des outils adaptés et en impliquant l’ensemble des parties prenantes concernées.

Pour approfondir le cadre juridique général de l’IA et de la protection des données, consultez notre article : IA et RGPD : les règles applicables.