I
Impetora
Règlement IA - Classement

Classement des risques selon le Règlement européen sur l'IA.

Le Règlement européen sur l'IA structure les obligations selon une approche par les risques. Quatre niveaux : risques inacceptables (interdits), risque élevé (obligations renforcées), risque limité (obligations de transparence) et risque minimal (pas d'obligation spécifique au-delà du droit commun). La qualification dépend de l'usage final du système, pas seulement de la technologie utilisée. C'est l'une des sources d'erreur les plus fréquentes en pratique.

Pratiques interdites (article 5)

Sont interdites les pratiques qui présentent des risques inacceptables pour les droits fondamentaux. La liste comprend la manipulation préjudiciable, l'exploitation des vulnérabilités, la notation sociale par les autorités publiques, la prédiction d'infraction sur la seule base du profilage, le scraping non ciblé d'images faciales pour bases de reconnaissance, la reconnaissance des émotions sur le lieu de travail et dans l'éducation (sauf cas médical ou de sécurité), la catégorisation biométrique sur la base d'attributs sensibles, et l'identification biométrique en temps réel dans les espaces publics par les forces de l'ordre (sauf exceptions strictes). Ces pratiques sont proscrites depuis février 2025.

Risque élevé (article 6 et annexes II-III)

Deux voies. Premièrement, les systèmes IA composants de produits soumis à un cadre harmonisé annexe I (machines, dispositifs médicaux, jouets, etc.) : automatiquement risque élevé si une évaluation tierce est requise pour le produit. Deuxièmement, les systèmes IA listés à l'annexe III dans huit domaines : biométrie, infrastructures critiques, éducation, emploi, accès aux services essentiels (crédit, prestations), application de la loi, migration et asile, justice. Une exception article 6 paragraphe 3 permet de déclasser un système annexe III qui n'influence pas matériellement la décision finale, sous réserve de documentation rigoureuse.

Obligations applicables au risque élevé

  • Système de gestion des risques (article 9) tenu pendant tout le cycle de vie.
  • Gouvernance des données (article 10) : pertinence, représentativité, qualité.
  • Documentation technique annexe IV.
  • Tenue de journaux automatiques (article 12).
  • Transparence et information du déployeur (article 13).
  • Supervision humaine effective (article 14).
  • Précision, robustesse et cybersécurité (article 15).
  • Système qualité du fournisseur (article 17), évaluation de conformité, marquage CE.
  • Enregistrement dans la base de données européenne avant mise sur le marché.

Risque limité (article 50)

Obligations de transparence pour quatre situations. Premièrement, les systèmes interagissant directement avec une personne physique : information que l'interlocuteur est une IA. Deuxièmement, les systèmes émettant du contenu synthétique audio, image, vidéo ou texte : marquage en sortie permettant la détection. Troisièmement, les systèmes de reconnaissance des émotions ou de catégorisation biométrique : information de la personne concernée. Quatrièmement, les hypertrucages (deep fakes) : information explicite du caractère généré ou manipulé.

Comment qualifier un système en pratique

Quatre étapes. Premièrement, qualifier le rôle de l'entreprise (fournisseur, déployeur, etc.). Deuxièmement, qualifier l'usage final métier précis du système. Troisièmement, projeter cet usage sur les annexes I et III pour identifier le statut risque élevé éventuel. Quatrièmement, vérifier les obligations de transparence article 50 indépendamment du classement de risque, car elles peuvent s'appliquer en parallèle. Une qualification motivée est exigible en cas de contrôle. Nous livrons systématiquement cette qualification dans nos dossiers techniques.

Questions fréquentes

Un système d'IA générative interne est-il automatiquement risque élevé ?

Non. La technologie IA générative en elle-même n'est pas une cause d'aggravation. C'est l'usage qui détermine le classement. Un assistant interne d'aide à la rédaction n'est généralement pas annexe III, sauf si sa sortie alimente une décision affectant des personnes.

L'exception article 6 paragraphe 3 est-elle facile à invoquer ?

Non. La preuve incombe au fournisseur, et la documentation requise est lourde. Nous recommandons d'invoquer l'exception uniquement avec un dossier solide et un avis juridique externe.

Comment Impetora aide-t-elle ?

Nous livrons une grille de qualification documentée pour chaque système : rôle, classe de risque, obligations applicables, écart à combler. Le dossier est utilisable directement par votre direction juridique et par votre DPO.

Comment classer votre système IA ?

Soumettre un projet
Appel de découverte

Réserver un appel de découverte

Dites-nous ce que vous souhaitez construire. Nous répondons sous un jour ouvré.

Appel de 30 minutes. Sans frais. Sans engagement.