Sous-traitance IA : clauses contractuelles RGPD
Sous-traitance IA et RGPD : clauses contractuelles obligatoires, répartition des responsabilités, modèle et bonnes pratiques.
Le recours à des fournisseurs tiers pour le développement, l’hébergement ou l’exploitation de systèmes d’intelligence artificielle est devenu la norme. La majorité des entreprises n’utilisent pas des systèmes d’IA développés en interne mais s’appuient sur des solutions fournies par des éditeurs spécialisés, sous forme de SaaS, d’API ou de modèles preetablis. Cette externalisation cree des relations de sous-traitance au sens du RGPD et des relations fournisseur-deployeur au sens du AI Act, chacune emportant des obligations contractuelles spécifiques.
L’encadrement contractuel de la sous-traitance IA constitue un enjeu juridique de premier ordre. Un contrat insuffisant exposé le responsable de traitement à des sanctions RGPD pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires mondial, auxquelles s’ajoutent les sanctions du AI Act pour les systèmes à haut risque. Au-delà des sanctions, un contrat mal rédigé cree une insécurité juridique prejudiciable en cas d’incident : fuite de données, décision discriminatoire, défaillance du système.
Le cadre juridique de la sous-traitance IA
L’article 28 du RGPD : socle de la relation contractuelle
L’article 28 du RGPD constitue le fondement juridique de l’encadrement contractuel de la sous-traitance en matière de données personnelles. Il impose au responsable du traitement de ne recourir qu’à des sous-traitants présentant des garanties suffisantes quant à la mise en oeuvre de mesures techniques et organisationnelles appropriées.
Le traitement par un sous-traitant doit être régi par un contrat ou un autre acte juridique comportant un ensemble de clauses obligatoires : l’objet et la durée du traitement, la nature et la finalité du traitement, le type de données à caractère personnel et les catégories de personnes concernées, les obligations et les droits du responsable du traitement.
Le contrat doit en outre prévoir que le sous-traitant ne traité les données que sur instruction documentée du responsable du traitement, qu’il garantit la confidentialité, qu’il met en oeuvre les mesures de sécurité appropriées, qu’il respecte les conditions applicables au recours à un autre sous-traitant, qu’il aidé le responsable du traitement a répondre aux demandes d’exercice des droits, qu’il aidé le responsable du traitement à assurer le respect des obligations de sécurité, de notification des violations et d’AIPD, qu’il supprimé ou restitue les données à l’issue du traitement, et qu’il met à disposition les informations nécessaires pour démontrer le respect des obligations et contribue aux audits.
Les obligations spécifiques du AI Act
Le AI Act ajouté une couche d’obligations supplémentaire pour les systèmes d’IA, spécifiquement pour les systèmes à haut risque. L’article 25 du règlement définit les responsabilités des distributeurs, importateurs et deployeurs, et impose une répartition claire des obligations entre les différents acteurs de la chaîne de valeur.
Le fournisseur d’un système d’IA à haut risque doit fournir aux deployeurs la documentation technique et les instructions d’utilisation nécessaires à la conformité. Le deployeur doit utiliser le système conformément à ces instructions et mettre en oeuvre les mesures de contrôle humain prévues.
Lorsqu’un deployeur modifie substantiellement un système d’IA à haut risque, il est considéré comme un nouveau fournisseur au sens du AI Act et assumé les obligations correspondantes. Cette requalification emporté des conséquences contractuelles significatives qu’il convient d’anticiper dans les clauses contractuelles.
Les clauses contractuelles essentielles
Clause de qualification des rôles
La première clause fondamentale doit qualifier les rôles respectifs des parties : responsable du traitement et sous-traitant au sens du RGPD, fournisseur et deployeur au sens du AI Act. Cette qualification détermine le régime d’obligations applicable à chaque partie.
La qualification peut se révéler complexe dans le contexte de l’IA. Un fournisseur de solution d’IA SaaS est généralement sous-traitant au sens du RGPD lorsqu’il traité des données personnelles pour le compte du client, mais fournisseur au sens du AI Act lorsqu’il met à disposition un système d’IA. Lorsque le fournisseur utilise les données du client pour améliorer son modèle, il peut devenir responsable conjoint du traitement au sens du RGPD, ce qui modifie substantiellement la répartition des obligations.
Clause relative aux finalités et aux instructions
Le contrat doit définir de manière précise les finalités du traitement et les instructions du responsable du traitement. Dans le contexte de l’IA, cette clause doit préciser si le sous-traitant est autorisé a utiliser les données du client pour l’entraînement ou l’amélioration de son modèle d’IA, les limites de l’utilisation des données (pas d’utilisation pour d’autres clients, pas de transfert à des tiers, pas d’agrégation avec d’autres jeux de données sauf instruction contraire), les paramètres d’utilisation du système d’IA (configuration, seuils de décision, contexte d’application) et les restrictions d’usage (cas d’utilisation interdits, populations sur lesquelles le système ne doit pas être utilise).
Clause de transparence et d’explicabilité
Le contrat doit garantir au responsable du traitement un accès suffisant aux informations relatives au fonctionnement du système d’IA. Cette clause doit couvrir la fourniture de la documentation technique prévue par l’annexe IV du AI Act, l’accès aux métriques de performance du système, la possibilité d’obtenir des explications sur les décisions individuelles du système (explicabilité), la communication des modifications apportees au système (mises à jour de l’algorithme, changements de données d’entraînement) et la fourniture des résultats des audits internes du fournisseur.
Clause relative à la qualité des données
L’article 10 du AI Act impose des exigences strictes de qualité des données d’entraînement. Le contrat doit répartir les responsabilités en la matière : obligations du fournisseur concernant la qualité des données d’entraînement de son modèle, obligations du deployeur concernant la qualité des données d’entrée fournies au système et procédures en cas de détection de problèmes de qualité des données.
Clause d’audit
Le droit d’audit constitue une clause essentielle, tant au regard du RGPD (article 28(3)(h)) que du AI Act. Le contrat doit prévoir le droit pour le responsable du traitement de réaliser ou de faire réaliser des audits du système d’IA et des traitements de données associés, les modalités pratiques de l’audit (préavis, périmètre, fréquence, accès aux locaux et aux systèmes), l’obligation pour le sous-traitant de coopérer aux audits et de fournir les informations nécessaires et la possibilité de recourir à un tiers indépendant pour la réalisation d’audits techniques.
Le droit d’audit doit couvrir non seulement la conformité RGPD classique (sécurité, confidentialité, respect des instructions) mais aussi la conformité spécifique à l’IA : performance du système, équité des résultats, robustesse, contrôle humain.
Clause relative aux incidents et aux violations
Le contrat doit prévoir un mécanisme de notification et de gestion des incidents couvrant à la fois les violations de données personnelles au sens de l’article 33 du RGPD et les incidents graves au sens du AI Act. Les délais de notification doivent être précises (le RGPD impose une notification dans les 72 heures pour les violations de données). Les obligations de coopération en cas d’incident doivent être détaillées.
Pour les systèmes d’IA, les incidents spécifiques a documenter incluent les défaillances du système (résultats errones, comportements inattendus), les biais detectes dans les résultats, les tentatives de manipulation ou d’attaque adversariale et les degradations significatives de performance.
Clause de sous-traitance ultérieure
Conformément à l’article 28(2) du RGPD, le contrat doit encadrer le recours à des sous-traitants ultérieurs. Dans le contexte de l’IA, cette clause est particulièrement importante car les fournisseurs de solutions d’IA s’appuient fréquemment sur des sous-traitants pour l’hébergement (fournisseurs cloud), l’entraînement des modèles et le traitement des données.
Le contrat doit prévoir soit une autorisation préalable spécifique pour chaque sous-traitant ultérieur, soit une autorisation générale assortie d’un droit d’opposition et d’une obligation d’information préalable. Les sous-traitants ultérieurs doivent être soumis aux mêmes obligations de protection des données que le sous-traitant principal.
Clause de localisation des données et des traitements
Le contrat doit préciser la localisation des données et des traitements, notamment le lieu d’hébergement des données personnelles, le lieu d’exécution des traitements d’IA (entraînement, inférence), les transferts de données hors de l’UE/EEE et les garanties applicables et les mesures supplémentaires mises en oeuvre conformément aux recommandations du CEPD.
Clause de propriété intellectuelle et de portabilité
Le contrat doit clarifier les questions de propriété intellectuelle spécifiques à l’IA : propriété des modèles entraînés, propriété des données d’entraînement et des résultats, portabilité du modèle et des données en cas de changement de fournisseur et conditions de restitution ou de suppression des données à l’issue du contrat.
Les spécificités sectorielles
Les clauses pour les systèmes d’IA à haut risque
Pour les systèmes d’IA relevant de la catégorie haut risque, le contrat doit prévoir des clauses supplémentaires : la fourniture de la documentation technique conforme à l’annexe IV du AI Act, l’obligation pour le fournisseur de procéder à l’évaluation de conformité et de la mettre à jour, l’engagement du fournisseur a maintenir le système de gestion des risques, l’obligation d’enregistrer le système dans la base de données de l’UE (registre des systèmes IA), la communication des mises à jour et des modifications substantielles et la coopération aux audits algorithmiques.
Les clauses pour les systèmes d’IA générative
Les systèmes d’IA générative présentent des risques spécifiques qui doivent être couverts contractuellement : les conditions d’utilisation des données d’entrée pour l’entraînement du modèle, les garanties de non-reproduction de données personnelles dans les résultats generes, la gestion du droit d’auteur sur les contenus generes, les mesures de filtrage et de moderation des contenus et la conformité aux obligations de transparence du AI Act (marquage des contenus generes par l’IA).
La conformité RGPD de l’IA exige une attention particulière aux flux de données dans les systèmes génératifs, ou les frontières entre données d’entrée, données d’entraînement et données de sortie sont parfois floues. Les systèmes de RAG (génération augmentée par récupération) illustrent parfaitement cette complexité, car ils combinent des données internes de l’entreprise avec les capacités du modèle d’IA, multipliant les relations de sous-traitance à encadrer contractuellement.
La négociation des clauses : points d’attention
L’équilibre contractuel
La négociation des clauses de sous-traitance IA est souvent desequilibree en faveur des fournisseurs, notamment pour les solutions SaaS standardisées. Les fournisseurs imposent fréquemment des contrats d’adhésion dont les clauses de protection des données et de conformité IA sont insuffisantes.
Les points de négociation prioritaires incluent le droit d’audit effectif (et non limite à la communication de rapports SOC 2), la transparence sur l’utilisation des données pour l’entraînement des modèles, les délais de notification des incidents, la clause de non-utilisation des données pour d’autres clients et les garanties de localisation des données.
La gestion des modifications contractuelles
Le cadre réglementaire de l’IA évolue rapidement. Le contrat doit prévoir des mécanismes d’adaptation aux évolutions réglementaires, notamment une clause de révision périodique des clauses de conformité, une obligation d’information mutuelle sur les évolutions réglementaires et un mécanisme de modification des conditions contractuelles en cas de changement législatif.
Le texte de l’article 28 du RGPD constitue le socle minimal que toute clause de sous-traitance doit respecter. Les exigences du AI Act s’y ajoutent sans s’y substituer. La CNIL a publié des clauses types qui peuvent servir de base à la négociation, adaptées au contexte de l’IA.
Le site de Legifrance fournit le texte de la loi Informatique et Libertés, qui complète le RGPD en droit français sur les questions de sous-traitance.
FAQ
Le fournisseur d’une solution d’IA SaaS est-il automatiquement sous-traitant au sens du RGPD ?
La qualification de sous-traitant au sens du RGPD dépend de la réalité des relations entre les parties et non de la dénomination contractuelle. Un fournisseur de solution d’IA SaaS est sous-traitant lorsqu’il traité des données personnelles pour le compte du client, selon les instructions de ce dernier. Toutefois, si le fournisseur utilise les données du client pour améliorer son propre modèle d’IA, pour entraîner d’autres modèles ou pour fournir des services à d’autres clients, il agit pour ses propres finalités et doit être qualifié de responsable du traitement (ou de responsable conjoint) pour ces traitements. Cette requalification emporté des conséquences majeures : le fournisseur doit disposer de sa propre base légale, informer les personnes concernées et assumer une responsabilité directe. Le contrat doit anticiper ces situations et définir clairement les traitements réalisés en tant que sous-traitant et ceux réalisés en tant que responsable du traitement.
Quelles clauses sont spécifiquement requises par le AI Act pour les contrats avec les fournisseurs de systèmes d’IA ?
Le AI Act ne prescrit pas de clauses contractuelles types comme le fait l’article 28 du RGPD. Toutefois, les obligations respectives des fournisseurs et des deployeurs impliquent un encadrement contractuel précis. Les clauses indispensables incluent la fourniture de la documentation technique et des instructions d’utilisation, la notification des modifications substantielles du système, la coopération pour les évaluations de conformité et les audits, le signalement des incidents graves, la maintenance du système de gestion des risques et le soutien technique pour la mise en oeuvre du contrôle humain. Pour les systèmes à haut risque, le contrat doit également couvrir l’obligation d’enregistrement dans la base de données de l’UE et la mise à jour de la documentation technique tout au long du cycle de vie du système.
Comment gérer contractuellement le risque de requalification en cas de modification du système d’IA par le deployeur ?
L’article 25(1)© du AI Act prévoit que toute personne qui modifie substantiellement un système d’IA à haut risque déjà mis sur le marché est considérée comme un nouveau fournisseur et assumé les obligations du fournisseur. Cette requalification peut intervenir lorsque le deployeur adapte, reentrainer ou modifie significativement le système fourni. Le contrat doit anticiper cette situation en définissant précisément ce qui constitue une modification substantielle, en repartissant les responsabilités en cas de modifications autorisées par le fournisseur, en prévoyant un mécanisme de notification et de validation des modifications envisagées et en clarifiant les conséquences d’une requalification sur les obligations respectives des parties. Il est recommandé d’inclure une clause prévoyant une coopération du fournisseur initial en cas de requalification, notamment pour la mise à disposition de la documentation technique et le transfert des responsabilités de conformité.