Classification des risques IA : comprendre les 4 niveaux du AI Act
Le AI Act classe les systèmes d'IA en 4 niveaux de risque. Guide pratique pour déterminer la catégorie de votre système et les obligations qui en découlent.
- Le fondement de l’approche par les risques
- Niveau 1 : les systèmes d’IA à risque inacceptable (pratiques interdites)
- Niveau 2 : les systèmes d’IA à haut risque
- Niveau 3 : les systèmes d’IA à risque limite (obligations de transparence)
- Niveau 4 : les systèmes d’IA à risque minimal
- Arbre de décision : comment classifier votre système d’IA
- Le calendrier d’entrée en application
- Points de vigilance
- Conclusion
Le règlement européen sur l’intelligence artificielle (AI Act), entre en vigueur le 1er août 2024, repose sur une architecture réglementaire fondée sur une classification des risques IA a quatre niveaux. Cette approche graduée constitue le coeur du dispositif : les obligations imposées aux fournisseurs et deployers de systèmes d’IA varient selon le niveau de risque identifie. Comprendre cette classification est donc un préalable indispensable à toute démarche de mise en conformité.
Cet article presente en détail chacun des quatre niveaux de risque, les critères permettant de déterminer dans quelle catégorie un système d’IA se situe, et les conséquences juridiques qui en découlent.
Le fondement de l’approche par les risques
Le législateur européen a fait le choix delibere d’une réglementation proportionnée. Plutôt que d’imposer un régime uniforme à l’ensemble des systèmes d’intelligence artificielle, le AI Act adapte le niveau de contrainte réglementaire au degré de risque que le système presente pour la santé, la sécurité et les droits fondamentaux des personnes.
Cette logique n’est pas nouvelle en droit européen. On la retrouve dans le RGPD, ou les obligations de l’organisme responsable de traitement sont modulees en fonction des risques que le traitement fait peser sur les droits et libertés des personnes concernées. Le AI Act pousse toutefois cette logique plus loin en établissant une véritable taxonomie des risques, avec des conséquences juridiques nettement differenciees.
La classification des risques IA prévue par le règlement distingue quatre niveaux :
- Risque inacceptable – systèmes interdits
- Haut risque – systèmes soumis à des obligations renforcées
- Risque limite – systèmes soumis à des obligations de transparence
- Risque minimal – systèmes non réglementés de manière spécifique
Examinons chacun de ces niveaux en détail.
Niveau 1 : les systèmes d’IA à risque inacceptable (pratiques interdites)
L’article 5 du AI Act énumère les pratiques d’intelligence artificielle considérées comme incompatibles avec les valeurs fondamentales de l’Union européenne. Ces systèmes sont purement et simplement interdits sur le territoire européen.
Les pratiques interdites
La liste des interdictions couvre les catégories suivantes :
-
Les techniques de manipulation subliminale : les systèmes d’IA qui deploient des techniques subliminales opérant en dessous du seuil de conscience d’une personne, ou des techniques délibérément manipulatrices ou trompeuses, dans le but d’altérer matériellement le comportement d’une personne d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice significatif.
-
L’exploitation des vulnérabilités : les systèmes exploitant les vulnérabilités liées à l’âge, au handicap ou à une situation sociale ou économique spécifique d’un groupe de personnes, dans le but d’altérer matériellement leur comportement d’une manière prejudiciable.
-
La notation sociale (social scoring) : les systèmes d’IA evalouant ou classant des personnes physiques sur la base de leur comportement social ou de caractéristiques personnelles, lorsque cette notation conduit à un traitement prejudiciable ou défavorable dans des contextes sans lien avec celui dans lequel les données ont été collectées, ou disproportionné par rapport au comportement en question.
-
L’évaluation du risque de récidive fondée uniquement sur le profilage ou les traits de personnalité, sans évaluation fondée sur des faits objectifs et verifiables.
-
La constitution de bases de données de reconnaissance faciale par la collecte non ciblée d’images faciales sur internet ou via des caméras de vidéosurveillance.
-
La reconnaissance des emotions sur le lieu de travail et dans les établissements d’enseignement, sauf pour des raisons médicales ou de sécurité.
-
La categorisation biométrique fondée sur des données biométriques pour déduire la race, les opinions politiques, l’appartenance syndicale, les convictions religieuses ou philosophiques, la vie sexuelle ou l’orientation sexuelle, sauf dans certains cas encadrés par la loi.
-
L’identification biométrique à distance en temps réel dans les espaces publics à des fins repressives, sauf dans des cas strictement encadrés (recherché de victimes, prévention de menaces terroristes, localisation de suspects).
Conséquences juridiques
Les systèmes relevant de cette catégorie ne peuvent être ni développés, ni mis sur le marché, ni utilisés dans l’Union européenne. Les sanctions prévues sont les plus lourdes du règlement : des amendes pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial de l’entreprise contrevenante.
Exemples concrets
- Un système de notation des citoyens par une autorité publique sur la base de leur comportement en ligne.
- Un logiciel publicitaire exploitant des techniques subliminales pour pousser des personnes âgées a effectuer des achats prejudiciables.
- Un système de reconnaissance faciale constituant sa base de données par aspiration massive d’images depuis les réseaux sociaux.
Niveau 2 : les systèmes d’IA à haut risque
C’est le coeur du dispositif réglementaire. Les systèmes d’IA à haut risque sont autorisés mais soumis à un ensemble d’obligations substantielles avant leur mise sur le marché et tout au long de leur cycle de vie.
Comment identifier un système à haut risque
Le AI Act définit deux voies d’identification des systèmes à haut risque :
Première voie (article 6, paragraphe 1) : les systèmes d’IA qui constituent eux-mêmes un produit, ou un composant de sécurité d’un produit, relevant de la législation d’harmonisation de l’Union listée à l’annexe I (dispositifs médicaux, machines, jouets, équipements radio, ascenseurs, etc.) et qui doivent faire l’objet d’une évaluation de conformité par un tiers.
Deuxieme voie (article 6, paragraphe 2 et annexe III) : les systèmes d’IA déployés dans des domaines spécifiques, énumérés à l’annexe III :
- Identification biométrique et categorisation des personnes physiques
- Gestion et exploitation d’infrastructures critiques (eau, gaz, électricité, transports, numérique)
- Éducation et formation professionnelle (admission, évaluation, surveillance des examens)
- Emploi et gestion des travailleurs (recrutement, décisions relatives à la promotion, au licenciement, à la répartition des tâches)
- Accès aux services essentiels (crédit, assurance, services publics, prestations sociales, services d’urgence)
- Répression (évaluation des risques, polygraphes, évaluation de la fiabilité des preuves, profilage)
- Migration, asile et contrôle aux frontières (évaluation des risques, vérification des documents, examen des demandes)
- Administration de la justice et processus démocratiques (recherche juridique, application de la loi aux faits)
Il convient toutefois de noter une nuance importante : un système relevant de l’annexe III n’est pas automatiquement classe à haut risque si son fournisseur démontre qu’il ne presente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes, notamment lorsque le système n’effectué qu’une tâche préparatoire étroite ou améliore le résultat d’une activité humaine préalable (article 6, paragraphe 3).
Les obligations applicables
Les fournisseurs de systèmes d’IA à haut risque doivent satisfaire un ensemble d’exigences détaillées : système de gestion des risques (article 9), gouvernance des données d’entraînement avec critères de qualité (article 10), documentation technique (article 11), journalisation automatique (article 12), transparence suffisante pour les deployers (article 13), supervision humaine effective (article 14), et précision, robustesse et cybersécurité (article 15).
Exemples concrets
- Un logiciel de tri automatisé de CV dans un processus de recrutement.
- Un système de crédit scoring utilisant l’IA pour évaluer la solvabilite des emprunteurs.
- Un dispositif médical intégrant un algorithme de diagnostic assiste par IA.
- Un système de vidéosurveillance intelligente utilisant la reconnaissance faciale dans un aeroport.
Niveau 3 : les systèmes d’IA à risque limite (obligations de transparence)
Le troisième niveau de la classification des risques IA concerne les systèmes soumis à des obligations spécifiques de transparence, prévues aux articles 50 et suivants du AI Act.
Systèmes concernés
Sont principalement visés :
-
Les systèmes d’interaction directe avec des personnes (chatbots, assistants virtuels) : les personnes doivent être informées qu’elles interagissent avec un système d’IA, sauf lorsque cela est évident au vu des circonstances.
-
Les systèmes de reconnaissance des emotions et de categorisation biométrique (lorsqu’ils ne sont pas interdits) : les personnes exposées doivent en être informées.
-
Les systèmes générant ou manipulant du contenu (images, audio, vidéo, texte) : le contenu génère artificiellement doit être marque comme tel de manière lisible par les machines. Les deepfakes doivent être identifiés comme du contenu génère ou manipule artificiellement.
-
Les modèles d’IA a usage général (GPAI) : obligations de transparence renforcées, incluant la publication d’un résumé suffisamment détaillé des données d’entraînement utilisées.
Exemples concrets
- Un chatbot de service client doit informer l’utilisateur qu’il échange avec une IA.
- Un outil de génération d’images (DALL-E, Midjourney, Stable Diffusion) doit marquer les images produites.
- Un système de synthèse vocale réaliste doit signaler le contenu comme artificiel.
Niveau 4 : les systèmes d’IA à risque minimal
Le dernier niveau de la classification des risques IA concerne la grande majorité des systèmes d’IA actuellement déployés. Ces systèmes ne font l’objet d’aucune obligation spécifique au titre du AI Act.
Systèmes concernés
Relevent de cette catégorie les systèmes d’IA qui ne présentent pas de risque significatif pour les droits fondamentaux, la santé ou la sécurité des personnes. Cela inclut par exemple :
- Les filtres anti-spam
- Les systèmes de recommandation de contenu (hors cas spécifiques)
- Les correcteurs orthographiques et grammaticaux assistes par IA
- Les systèmes d’optimisation logistique
- Les outils de traduction automatique
- Les jeux vidéo utilisant l’IA
Un régime volontaire
Le AI Act encourage l’adoption volontaire de codes de conduite (durabilité, accessibilité, diversité), mais n’impose aucune obligation contraignante. Il est toutefois essentiel de rappeler que l’absence d’obligations au titre du AI Act n’exonère pas de l’application du RGPD lorsque le système traité des données personnelles.
Arbre de décision : comment classifier votre système d’IA
Pour déterminer dans quelle catégorie de la classification des risques IA votre système se situe, suivez ce raisonnement séquentiel :
Étape 1 – Vérification des pratiques interdites Votre système correspond-il à l’une des pratiques listées à l’article 5 du AI Act (manipulation subliminale, exploitation des vulnérabilités, notation sociale, reconnaissance faciale de masse, etc.) ?
- Si oui : risque inacceptable – le système est interdit.
- Si non : passer à l’étape 2.
Étape 2 – Vérification du haut risque (voie produit) Votre système d’IA constitue-t-il un produit ou un composant de sécurité d’un produit relevant de la législation d’harmonisation de l’Union listée à l’annexe I, nécessitant une évaluation de conformité par un tiers ?
- Si oui : haut risque (sauf si l’exception de l’article 6, paragraphe 3 s’applique).
- Si non : passer à l’étape 3.
Étape 3 – Vérification du haut risque (voie domaine) Votre système est-il déployé dans l’un des domaines listes à l’annexe III (biométrie, infrastructures critiques, éducation, emploi, services essentiels, répression, migration, justice) ?
- Si oui : haut risque, sauf si le fournisseur démontre que le système ne presente pas de risque significatif (article 6, paragraphe 3).
- Si non : passer à l’étape 4.
Étape 4 – Vérification des obligations de transparence Votre système interagit-il directement avec des personnes (chatbot), génère-t-il du contenu synthétique (texte, images, vidéo, audio), détecté-t-il des emotions ou procédé-t-il à une categorisation biométrique ?
- Si oui : risque limite – obligations de transparence applicables.
- Si non : passer à l’étape 5.
Étape 5 – Risque minimal Votre système ne relève d’aucune des catégories précédentes : risque minimal. Aucune obligation spécifique au titre du AI Act, mais les autres réglementations applicables (RGPD, droit de la consommation, droit sectoriel) continuent de s’appliquer.
Le calendrier d’entrée en application
La classification des risques IA produit ses effets de manière échelonnée :
- 2 février 2025 : les interdictions relatives aux systèmes à risque inacceptable sont applicables.
- 2 août 2025 : les obligations relatives aux modèles d’IA a usage général (GPAI) et les règles de gouvernance sont applicables.
- 2 août 2026 : les obligations relatives aux systèmes d’IA à haut risque définis à l’annexe III sont applicables.
- 2 août 2027 : les obligations relatives aux systèmes d’IA à haut risque intégrés dans des produits relevant de la législation d’harmonisation de l’Union sont applicables.
Ce calendrier progressif laissé aux acteurs le temps de se préparer, mais il est essentiel d’anticiper des maintenant les démarches de mise en conformité, en particulier pour les systèmes susceptibles d’être classes à haut risque.
Points de vigilance
La classification n’est pas figée : un système peut migrer vers un niveau supérieur si son périmètre d’utilisation évolue. Par ailleurs, la classification des risques IA ne se substitue pas à l’analyse des risques au titre du RGPD – les deux cadres se cumulent. Un système à risque minimal au sens du AI Act peut nécessiter une AIPD si le traitement de données personnelles presente un risque élevé. Consultez notre article IA et RGPD pour approfondir cette articulation. Enfin, il est recommande de documenter le raisonnement de classification, élément de preuve essentiel en cas de contrôle.
Conclusion
La classification des risques IA constitue la pierre angulaire du AI Act. Elle détermine l’ensemble des obligations applicables à un système d’intelligence artificielle et conditionné la stratégie de mise en conformité a déployer. Toute organisation développant ou utilisant des systèmes d’IA doit impérativement mener cet exercice de classification en amont, en s’appuyant sur une analyse rigoureuse des fonctionnalités du système, de son domaine de déploiement et de ses impacts potentiels sur les droits fondamentaux.
Pour une analyse complète du règlement européen sur l’intelligence artificielle, consultez notre guide : EU AI Act : le guide complet.