Donneespersonnelles.fr

Plateforme de veille en conformite numerique

Vendredi 17 avril 2026
AI Act

Registre des systèmes IA : obligation et modèle

Registre des systèmes IA : obligation légale du AI Act, contenu obligatoire, modèle pratique et articulation avec le registre RGPD.

Le règlement européen sur l’intelligence artificielle (AI Act) instaure une obligation d’enregistrement des systèmes d’IA à haut risque dans une base de données de l’Union européenne. Cette obligation, prévue aux articles 49 et 71 du règlement, constitue un instrument de transparence et de surveillance du marché. Parallèlement, les organisations ont un intérêt opérationnel majeur a tenir un registre interne de l’ensemble de leurs systèmes d’IA, qu’ils soient ou non à haut risque, afin d’assurer une gouvernance efficace et de documenter leur conformité.

Ce registre interne s’ajoute au registre des traitements impose par l’article 30 du RGPD lorsque les systèmes d’IA traitent des données personnelles. La cohérence et l’articulation entre ces deux registres sont essentielles pour éviter les redondances et garantir une vision d’ensemble de la conformité.

L’obligation d’enregistrement dans la base de données de l’UE

Le cadre légal : articles 49 et 71 du AI Act

L’article 49 du AI Act impose aux fournisseurs de systèmes d’IA à haut risque d’enregistrer leur système et eux-mêmes dans la base de données de l’UE prévue à l’article 71, avant la mise sur le marché ou la mise en service du système. Cette obligation vise à assurer la transparence vis-à-vis du public et à faciliter la surveillance du marché par les autorités nationales compétentes.

L’article 71 cree cette base de données de l’UE pour les systèmes d’IA à haut risque, gérée par la Commission européenne. Cette base de données est accessible au public et contient les informations enregistrées conformément à l’article 49. Elle est alimentee par les fournisseurs et, pour certaines informations, par les deployeurs de systèmes d’IA à haut risque.

Les deployers eux-mêmes ont une obligation d’enregistrement : l’article 49, paragraphe 3, impose aux deployeurs de systèmes d’IA à haut risque qui sont des autorités publiques, des institutions, organes ou organismes de l’Union, ou des personnes agissant pour leur compte, de s’enregistrer et d’enregistrer l’utilisation du système dans la base de données.

Les informations a enregistrer

L’annexe VIII du AI Act définit les informations que les fournisseurs doivent enregistrer dans la base de données de l’UE. Ces informations comprennent le nom et les coordonnées du fournisseur et, le cas échéant, de son représentant autorise, le nom commercial et toute référence supplémentaire non ambiguë permettant l’identification du système d’IA, une description de la finalité prévue du système, le statut du système (sur le marché, hors du marché, rappelé), le type de système d’IA à haut risque (selon les catégories de l’annexe III), les conditions d’utilisation et les limites du système et les États membres dans lesquels le système a été mis sur le marché ou mis en service.

Le texte intégral du règlement et de ses annexes est disponible sur EUR-Lex.

Le registre interne des systèmes d’IA : pourquoi et comment

L’intérêt stratégique du registre interne

Au-delà de l’obligation légale d’enregistrement dans la base de données de l’UE, la tenue d’un registre interne de l’ensemble des systèmes d’IA utilisés par l’organisation répond à plusieurs objectifs.

En matière de gouvernance, le registre fournit une vision exhaustive du patrimoine IA de l’organisation. Il permet d’identifier les systèmes à haut risque nécessitant une conformité renforcée, de suivre le cycle de vie de chaque système, de coordonner les actions de conformité et de prioriser les efforts d’audit algorithmique.

En matière de conformité, le registre interne permet de démontrer le respect du principe de responsabilité (accountability) prévu par le RGPD. Il constitue un élément probatoire en cas de contrôle par les autorités de surveillance du marché ou par la CNIL. Il facilite la réalisation des analyses d’impact (AIPD) en identifiant les systèmes nécessitant une telle analyse.

En matière de gestion des risques, le registre permet une vision consolidée des risques liés à l’IA au sein de l’organisation, facilitant la détection des concentrations de risques et l’allocation des ressources de mitigation.

L’articulation avec le registre des traitements RGPD

Le registre des systèmes d’IA et le registre des traitements prévu par l’article 30 du RGPD sont deux instruments distincts mais complémentaires. Le registre RGPD recense les traitements de données personnelles. Le registre IA recense les systèmes d’IA, qu’ils traitent ou non des données personnelles.

Pour les systèmes d’IA traitant des données personnelles, les deux registres doivent être cohérents. Il est recommandé d’établir des références croisées entre les deux registres : chaque fiche du registre IA doit renvoyer aux fiches correspondantes du registre RGPD, et inversement. Cette articulation facilite la gestion documentaire et évite les incohérences.

Le contenu du registre interne : modèle détaillé

Identification du système

Chaque fiche du registre interne doit inclure une identification complète du système : dénomination interne du système, version, fournisseur (interne ou externe), date de mise en service, statut (en développement, en production, hors service), responsable interne (propriétaire métier et responsable technique), classification de risque AI Act (inacceptable, haut risque, risque limite, risque minimal) et référence dans la base de données de l’UE le cas échéant.

Description fonctionnelle

La fiche doit décrire la finalité prévue du système, les catégories de décisions ou de résultats produits, les utilisateurs du système (deployeurs internes), les personnes affectées par le système et le contexte d’utilisation (domaine métier, processus concerne).

Informations techniques

La fiche doit documenter le type d’IA (apprentissage supervise, non supervise, renforcement, système expert, modèle de langage, etc.), l’architecture du modèle, les données d’entrée et de sortie, les métriques de performance et la référence à la documentation technique détaillée.

Conformité réglementaire

Pour chaque système, le registre doit tracer le statut de l’évaluation de conformité AI Act, le statut de l’AIPD le cas échéant, les références aux fiches du registre des traitements RGPD, les résultats des audits algorithmiques réalisés, les mesures de contrôle humain mises en place et les mesures de transparence vis-à-vis des personnes affectées.

Sous-traitance et chaîne de valeur

Lorsque le système d’IA est fourni par un tiers, la fiche doit documenter l’identité du fournisseur, les clauses contractuelles applicables, les responsabilités respectives du fournisseur et du deployeur, les droits d’audit prévus et la localisation des données traitées par le système.

Gestion du cycle de vie

Le registre doit tracer les évènements significatifs du cycle de vie de chaque système : date de mise en service, modifications substantielles, mises à jour, incidents, audits, évaluations de conformité et mise hors service.

Les obligations spécifiques des deployeurs

L’inventaire des systèmes déployés

Les organisations qui deploient des systèmes d’IA à haut risque sans les avoir eux-mêmes développés doivent néanmoins les recenser dans leur registre interne. Le AI Act impose aux deployeurs des obligations propres de diligence, qui supposent une connaissance précise des systèmes utilisés sous leur autorité.

Les deployeurs doivent vérifier que le système est enregistré dans la base de données de l’UE par le fournisseur, s’assurer de la conformité du système avant de l’utiliser, mettre en oeuvre les mesures de contrôle humain prévues par les instructions d’utilisation et surveiller le fonctionnement du système pendant son utilisation.

La notification des incidents

Le AI Act impose aux fournisseurs de systèmes d’IA à haut risque de notifier les incidents graves aux autorités de surveillance du marché. Les deployeurs doivent coopérer avec les fournisseurs pour la détection et la notification des incidents. Le registre interne doit tracer les incidents signales et les mesures correctives mises en oeuvre.

L’analyse d’impact sur les droits fondamentaux

L’article 27 du AI Act impose aux deployeurs de systèmes d’IA à haut risque qui sont des organismes de droit public ou des entités privées fournissant des services publics de réaliser une analyse d’impact sur les droits fondamentaux avant de mettre en service un système d’IA à haut risque. Cette analyse, distincte de l’AIPD du RGPD, doit être documentée et tracée dans le registre.

La mise en oeuvre pratique

Le processus de recensement

La constitution initiale du registre passe par un processus de recensement systématique des systèmes d’IA au sein de l’organisation. Ce recensement doit couvrir l’ensemble des directions et services, en incluant non seulement les systèmes d’IA explicitement identifiés comme tels, mais aussi les outils intégrant des composants d’IA (systèmes de recommandation, chatbots, outils d’analyse prédictive, etc.).

L’expérience montre que les organisations sous-estiment fréquemment le nombre de systèmes d’IA qu’elles utilisent. Un recensement rigoureux révèle souvent l’existence de systèmes d’IA “shadow”, déployés par les équipes métier sans validation préalable par les fonctions de conformité. Le formulaire d’inventaire peut être adapte pour couvrir les spécificités des systèmes d’IA.

La gouvernance du registre

La responsabilité de la tenue du registre doit être clairement attribuee. Dans les organisations disposant d’un responsable IA ou d’un comité de gouvernance de l’IA, cette responsabilité lui incombe naturellement. Dans les autres cas, elle peut être attribuee au DPO, au RSSI ou à un responsable de la conformité, en fonction de l’organisation interne.

La mise à jour du registre doit être intégrée dans les processus opérationnels : toute acquisition, tout déploiement, toute modification substantielle ou toute mise hors service d’un système d’IA doit donner lieu à une mise à jour du registre. Un processus de revue périodique, au minimum annuel, doit être instaure pour vérifier l’exhaustivité et l’exactitude du registre.

Les outils de gestion du registre

Pour les organisations gérant un nombre limite de systèmes d’IA, un tableur structuré peut suffire. Pour les organisations disposant d’un patrimoine IA plus important, des outils dédiés de gouvernance de l’IA offrent des fonctionnalités avancées : catalogage automatisé, workflow de validation, gestion des versions, génération de rapports de conformité et intégration avec les outils MLOps.

Le AI Act et le RGPD imposent des obligations documentaires qui se renforcent mutuellement. La cohérence entre le registre des systèmes IA, le registre des traitements RGPD et la documentation technique est essentielle pour une conformité robuste et verifiable.

Les sanctions en cas de non-respect des obligations d’enregistrement sont significatives. La fourniture d’informations inexactes, incomplètes ou trompeuses aux autorités est sanctionnée par des amendes pouvant atteindre 7,5 millions d’euros ou 1 % du chiffre d’affaires annuel mondial. Le non-enregistrement d’un système à haut risque dans la base de données de l’UE constitue une violation des obligations du fournisseur. Les exigences de conformité sont détaillées sur le site de la stratégie numérique européenne.

FAQ

Mon organisation doit-elle tenir un registre interne même si elle n’utilise pas de systèmes d’IA à haut risque ?

Le AI Act n’impose l’enregistrement dans la base de données de l’UE que pour les systèmes d’IA à haut risque. Toutefois, la tenue d’un registre interne de l’ensemble des systèmes d’IA, quel que soit leur niveau de risque, constitue une bonne pratique de gouvernance fortement recommandée. Ce registre permet de démontrer le respect du principe de responsabilité du RGPD, d’identifier proactivement les systèmes susceptibles d’être reclasses à haut risque, de préparer l’organisation aux évolutions réglementaires et de maintenir une vision d’ensemble du patrimoine IA. De plus, la classification des risques peut évoluer avec les mises à jour de l’annexe III du AI Act, et un registre à jour permet de réagir rapidement à ces évolutions.

Comment articuler le registre IA avec le registre des traitements RGPD ?

L’articulation optimale repose sur un système de références croisées. Chaque fiche du registre IA relative à un système traitant des données personnelles doit contenir un renvoi vers les fiches correspondantes du registre RGPD (identifiant du traitement, finalité, base légale). Inversement, les fiches du registre RGPD relatives à des traitements impliquant un système d’IA doivent renvoyer vers la fiche du registre IA. Il est déconseillé de fusionner les deux registres, car ils répondent à des obligations distinctes et ont des perimetres différents (le registre RGPD couvre tous les traitements de données personnelles, pas seulement ceux impliquant de l’IA ; le registre IA couvre tous les systèmes d’IA, y compris ceux ne traitant pas de données personnelles). En revanche, ils doivent être gérés de manière cohérente, idéalement par des équipes coordonnées.

Quelles sont les conséquences de l’absence d’enregistrement d’un système à haut risque dans la base de données de l’UE ?

L’absence d’enregistrement d’un système d’IA à haut risque dans la base de données de l’UE constitue une violation de l’article 49 du AI Act. Cette violation exposé le fournisseur à des sanctions financières. Le système ne peut légalement être mis sur le marché ou mis en service sans cet enregistrement préalable. Les autorités de surveillance du marché peuvent ordonner le retrait du système, sa mise en conformité ou l’interdiction de sa mise à disposition. L’absence d’enregistrement peut également être interprétée comme un indice de non-conformité plus large, susceptible de déclencher un contrôle approfondi de l’ensemble des obligations du fournisseur. Pour les deployeurs publics, l’utilisation d’un système non enregistré constitue elle-même une violation de leurs obligations propres au titre du AI Act.