I
Impetora
Cas d'usage

Aide à la décision auditable pour les secteurs réglementés.

L'intelligence artificielle d'aide à la décision couvre l'évaluation des risques, le triage des sinistres, la détection de fraude et la priorisation des dossiers. Ces systèmes relèvent généralement de la catégorie haut risque au titre de l'annexe III du Règlement européen sur l'IA. Impetora les livre avec piste d'audit complète, supervision humaine documentée et citation source pour chaque recommandation.

100 %
Décisions justifiées par citation
Annexe III
Cadre Règlement européen sur l'IA
Art. 22
Conformité RGPD décisions automatisées
UE
Résidence des données et logs

Quelle est la frontière entre aide à la décision et décision automatisée ?

L'aide à la décision propose un score, une recommandation et un raisonnement à un humain qui tranche. La décision automatisée tranche seule. La frontière emporte des conséquences juridiques majeures. L'article 22 du RGPD interdit en principe la décision exclusivement automatisée produisant un effet juridique ou affectant significativement la personne, sauf consentement explicite, contrat ou base légale spécifique. Le Règlement européen sur l'IA ajoute, pour les usages relevant de l'annexe III (recrutement, crédit, assurance, justice, services essentiels), des obligations d'évaluation de conformité, de supervision humaine effective et de transparence. Le choix entre les deux postures relève d'abord du juridique, et non du technique.

Comment la supervision humaine s'organise-t-elle ?

Le Règlement européen sur l'IA exige une supervision humaine effective et non symbolique : l'humain doit pouvoir comprendre la sortie du système, en évaluer la pertinence en contexte et la passer outre. En pratique, cela impose une interface claire présentant la recommandation, son score de confiance, les facteurs principaux et les sources documentaires citées. Les déploiements Impetora intègrent systématiquement un journal qui distingue les décisions confirmées, modifiées ou écartées par l'humain. Cette donnée nourrit la calibration et sert de preuve en cas d'audit ACPR, AMF ou CNIL.

Quels secteurs déploient ces systèmes ?

L'assurance utilise l'aide à la décision pour le triage de sinistres et la détection de fraude. La banque s'en sert pour le scoring de crédit, la lutte contre le blanchiment et la revue de transactions atypiques. Le recouvrement priorise les dossiers selon la propension de paiement. La santé trie les dossiers selon l'urgence et la complexité. Les administrations publiques et les services essentiels peuvent l'utiliser pour l'allocation de ressources, sous des contraintes plus strictes. Dans tous les cas, le système est documenté comme outil au service du jugement humain, jamais comme substitut, et cette documentation est une condition d'entrée sur le marché européen.

Comment se construit l'auditabilité ?

Trois couches sont nécessaires. D'abord, une trace technique : chaque appel au modèle est journalisé avec entrée, sortie, version du modèle, version des règles métier et identifiant de session. Ensuite, une trace métier : la décision finale est enregistrée avec son auteur (humain ou système), son score de confiance et les sources citées. Enfin, une trace réglementaire : la documentation prévue à l'annexe IV du Règlement européen sur l'IA est tenue à jour avec architecture, gouvernance des données, mesures de gestion des risques et plan de surveillance post-déploiement. L'ensemble est conservé pendant la durée légale et reste accessible aux autorités sans manipulation manuelle.

Quel est le calendrier de mise en conformité ?

Le Règlement européen sur l'IA est entré en vigueur en août 2024. Les interdictions s'appliquent depuis février 2025. Les obligations sur les modèles à usage général sont entrées en vigueur en août 2025. Les obligations pleines pour les systèmes à haut risque deviennent applicables en août 2026, et l'ensemble du règlement en août 2027. Pour un système d'aide à la décision déployé en 2026, l'évaluation de conformité, la documentation prévue à l'annexe IV et le marquage CE, le cas échéant, doivent être prêts à l'été 2026. Règle pratique : engager la mise en conformité au moins six mois avant la mise en production prévue.

Questions fréquentes

Mon système peut-il rester en risque limité ?

Oui, si l'humain tranche systématiquement et que la décision n'a pas d'effet juridique direct. La classification dépend de l'usage, pas de la technologie. Impetora documente cette analyse en phase de découverte.

Comment se gèrent les biais ?

Par échantillonnage représentatif, surveillance continue sur sous-populations et plan d'atténuation documenté. Les obligations sont précisées à l'article 10 du Règlement européen sur l'IA pour les systèmes à haut risque.

Puis-je expliquer une décision à un client ?

Oui. Chaque sortie comprend les facteurs principaux et les sources citées, ce qui permet une explication conforme à l'article 22 du RGPD et aux obligations de transparence du Règlement européen sur l'IA.

Vous souhaitez déployer une aide à la décision auditable ?

Soumettre un projet
Appel de découverte

Réserver un appel de découverte

Dites-nous ce que vous souhaitez construire. Nous répondons sous un jour ouvré.

Appel de 30 minutes. Sans frais. Sans engagement.