Construire des systèmes d'intelligence artificielle qui résistent à un audit.
Lorsqu'une autorité de contrôle se présente, ce qui distingue un dossier solide d'un dossier fragile n'est pas la qualité du discours mais la qualité des artefacts. Sept points structurent une architecture défendable. Aucun ne s'ajoute en remédiation après coup. Tous structurent le système dès le premier jour.
1. Inventaire des modèles tenu à jour
Un superviseur commence par demander la liste. Sans inventaire, le contrôle se transforme en chasse au trésor à votre désavantage. L'inventaire répertorie les systèmes IA matériels, leur finalité, leur classement de risque selon le Règlement européen sur l'IA, leur propriétaire interne, leur statut (en production, en validation, retiré). Mise à jour trimestrielle minimum, plus fréquente pour les portefeuilles actifs.
2. Fiche modèle alignée annexe IV
Une fiche par système, structurée selon l'annexe IV du Règlement IA : description fonctionnelle, architecture, données d'entraînement, validation, métriques de performance, gestion des risques, surveillance après commercialisation. Cette fiche sert simultanément le superviseur, l'équipe de validation et le DPO. Mutualiser l'effort, pas dupliquer.
3. Journal d'inférence chaîné
Chaque inférence produit un enregistrement : horodatage, identifiant requête, version modèle, entrée, sortie, métadonnées de citation. Les enregistrements sont chaînés par hachage cryptographique de manière à détecter toute modification a posteriori. Le journal est exportable en format ouvert pour le SOC et le superviseur. Sans cette traçabilité, la supervision humaine effective ne peut être démontrée.
4. Citations source visibles dans la sortie
Pour les architectures RAG et pour les systèmes d'aide à la décision, chaque réponse comporte la liste des documents source utilisés et la zone exacte des extraits. Sans citation visible, le contrôleur de qualité humain ne peut faire son travail, et la défense en cas de contestation est plus difficile. C'est le pilier C de la méthodologie TRACE, indispensable.
5. Supervision humaine effective documentée
L'article 14 du Règlement IA et l'article 22 du RGPD imposent une supervision humaine effective sur les décisions matérielles. Effective signifie : l'opérateur dispose des informations pertinentes, du temps nécessaire et de l'autorité pour passer outre. Le système enregistre les décisions confirmées, modifiées ou écartées par l'humain, et ce journal devient une preuve d'efficacité du dispositif.
6. Tests adversariaux versionnés
Une suite de tests adversariaux versionnée, couvrant l'injection de prompt, le contournement de filtres, l'exfiltration par requêtes inverses, la manipulation des sources injectées dans le RAG. Cette suite est rejouée à chaque mise à jour du modèle, et les résultats sont conservés. NIS2 et le Règlement IA convergent sur cette exigence pour les systèmes de production.
7. Plan de surveillance et de signalement d'incident
Le système génère des alertes automatiques en cas de dérive de performance, de détection d'abus ou d'incident de sécurité. Les délais de notification sont préparés à l'avance : 15 jours pour les incidents graves au sens article 73 du Règlement IA, 72 heures pour les violations de données au sens RGPD, 24 heures pour les alertes précoces NIS2. Modèles de notification préremplis disponibles avant le besoin.
Le résultat en pratique
Un système qui satisfait ces sept points présente un dossier d'audit cohérent, défendable, exploitable par votre direction juridique sans ré-instruction lourde. La construction simultanée de ces artefacts coûte moins cher que la remédiation après contrôle, dans un rapport régulièrement constaté de un à cinq. C'est l'hypothèse de travail d'Impetora : l'auditabilité comme livrable, pas comme couche ajoutée.