TRACE - quatre piliers pour une IA qui résiste à l'audit.
TRACE est la méthodologie qu'Impetora applique à chaque mission. Elle structure quatre exigences non négociables pour les systèmes d'intelligence artificielle déployés dans les secteurs réglementés : confiance, préparation, architecture de production et citations sourcées.
Le régulateur voit sur une page le parcours des données : provenance, traitement, sortie, audit. Infrastructure exclusivement européenne, classification de risque selon le Règlement européen sur l'IA, conformité RGPD native. Aucune donnée client ne quitte les régions de l'UE.
Avant la moindre ligne de code : audit des données disponibles, mesure de la situation opérationnelle de référence, documentation du flux de travail actuel et identification des points de décision sensibles. La phase de préparation représente entre quinze et trente pour cent du budget total.
Des systèmes de qualité production, et non des démonstrateurs. Invites versionnées, suites d'évaluation automatisées, déploiement en mode fantôme avant mise en service, possibilité de retour arrière à chaque étape. Ce qui n'a pas été évalué n'est pas mis en production.
Chaque champ extrait, chaque réponse générée, chaque décision proposée renvoie au document source, à la version du modèle et au score de confiance. Tout audit se reconstitue en quelques secondes, et non en plusieurs jours.
Le déroulé d'une mission
Une à deux semaines. Audit des données, cartographie du flux opérationnel, classification du risque selon l'annexe III du Règlement européen sur l'IA. Le périmètre, le calendrier et le tarif sont proposés à l'issue de cette phase.
Quatre à douze semaines. Échantillon en volume réel, suite d'évaluation, déploiement en mode fantôme. Ce qui passe l'évaluation est mis en production avec des pistes d'audit complètes dès le premier jour.
Mission continue. Supervision active, surveillance après mise en production, mises à jour suivant le calendrier d'application du Règlement européen sur l'IA, gouvernance ISO 42001.
Référentiels que nous appliquons
- Règlement (UE) 2024/1689, dit Règlement européen sur l'IA (RIA), avec entrée en vigueur progressive jusqu'en août 2027.
- Règlement général sur la protection des données (RGPD), notamment l'article 22 relatif aux décisions individuelles automatisées.
- Norme ISO 42001 sur la gouvernance des systèmes d'intelligence artificielle.
- Cadre NIST AI Risk Management Framework pour les missions impliquant des contreparties hors UE.
- Recommandations de la CNIL et, selon le secteur, de l'ACPR, de l'AMF et de l'AESIA.