I
Impetora
Glossaire

Glossaire IA pour l'entreprise.

Définitions précises, indépendantes des fournisseurs, alignées sur le Règlement européen sur l'IA, le RGPD et la norme ISO 42001. Le format va à l'essentiel : une phrase de définition, puis un paragraphe d'explication exploitable en réunion.

Règlement européen sur l'IA (EU AI Act)

Le Règlement (UE) 2024/1689 est le premier cadre horizontal au monde sur les systèmes d'intelligence artificielle, entré en vigueur le 1er août 2024.

Lire la définition →
RGPD (Règlement général sur la protection des données)

Le Règlement (UE) 2016/679, applicable depuis mai 2018, encadre le traitement des données à caractère personnel des personnes situées dans l'Union européenne.

Lire la définition →
ISO 42001

Norme internationale ISO/IEC 42001:2023 décrivant un système de management de l'intelligence artificielle (AIMS), volontaire et certifiable.

Lire la définition →
AIPD (Analyse d'impact relative à la protection des données)

Étude formalisée prévue à l'article 35 du RGPD lorsqu'un traitement est susceptible d'engendrer un risque élevé pour les droits et libertés des personnes.

Lire la définition →
Méthodologie TRACE

Approche Impetora structurée en quatre piliers : Confiance (Trust), Préparation (Readiness), Architecture, Citations.

Lire la définition →
Flux agentiques (workflows agentiques)

Architecture où un système d'intelligence artificielle planifie, exécute et révise une séquence d'actions en interaction avec des outils et des sources de données externes.

Lire la définition →
Extraction documentaire

Capacité à transformer un document non structuré (PDF, image, courrier) en données structurées exploitables, avec citation source et niveau de confiance.

Lire la définition →
RAG (génération augmentée par récupération)

Architecture qui combine un moteur de recherche dans un corpus contrôlé et un modèle de langage générant la réponse à partir des extraits récupérés, avec citation source.

Lire la définition →
Fine-tuning (réglage fin)

Adaptation d'un modèle pré-entraîné à un usage spécifique par poursuite d'apprentissage sur un jeu de données représentatif de la tâche cible.

Lire la définition →
Harness d'évaluation

Dispositif technique permettant d'exécuter automatiquement un jeu de tests versionné sur un système d'intelligence artificielle, et de comparer les sorties à une référence.

Lire la définition →
DORA (Digital Operational Resilience Act)

DORA, le Digital Operational Resilience Act (Règlement UE 2022/2554), encadre depuis le 17 janvier 2025 la résilience opérationnelle numérique des banques, assureurs, entreprises d'investissement, prestataires crypto et prestataires TIC tiers critiques au sein de l'Union européenne.

Lire la définition →
Directive NIS-2

NIS-2 (Directive UE 2022/2555) étend les exigences européennes de cybersécurité à 18 secteurs et environ 160 000 entreprises, avec une notification harmonisée et une responsabilité personnelle des dirigeants.

Lire la définition →
MiCA (Markets in Crypto-Assets)

MiCA (Règlement UE 2023/1114) est le premier cadre européen complet sur les crypto-actifs, applicable depuis le 30 décembre 2024 à tous les acteurs et prestataires de services sur crypto-actifs (PSCA).

Lire la définition →
Règlement eIDAS

Le règlement eIDAS (Règlement UE 910/2014, profondément réformé en 2024 par le règlement UE 2024/1183) encadre l'identification électronique, les services de confiance et le portefeuille européen d'identité numérique (EUDI Wallet).

Lire la définition →
NIST AI Risk Management Framework

Le NIST AI RMF 1.0 (janvier 2023, complété par le Generative AI Profile de juillet 2024) est le cadre volontaire américain d'évaluation du risque IA, largement repris à l'international et utilisé par beaucoup d'entreprises européennes comme porte d'entrée pratique vers ISO 42001.

Lire la définition →
OWASP LLM Top 10

Le OWASP Top 10 for Large Language Model Applications (version 2025) est la liste de référence des vulnérabilités des systèmes basés sur des LLM et figure régulièrement dans les rapports d'audit, les tests d'intrusion et les revues d'architecture.

Lire la définition →
Injection de prompt

L'injection de prompt désigne la famille d'attaques où des entrées malveillantes ou des contenus tiers conduisent un modèle de langage à agir contre les consignes de son exploitant. OWASP la classe LLM01.

Lire la définition →
Hallucination (IA)

Une hallucination désigne le cas où un modèle d'IA produit un contenu plausible mais factuellement faux ou sans appui dans les données d'entrée. C'est la critique la plus fréquente dans les rapports d'audit sur l'IA générative.

Lire la définition →
Red Teaming (IA)

Le red teaming désigne l'examen adverse structuré d'un système d'IA, où une équipe cherche délibérément des vulnérabilités, des scénarios de détournement et des failles de sécurité avant que de vrais attaquants ne le fassent.

Lire la définition →
Mode shadow

Le mode shadow désigne l'exploitation d'un système d'IA en production où le modèle produit des suggestions sans qu'elles atteignent les clients finals ou les processus métier. C'est la première des trois étapes de maturité de notre méthodologie TRACE.

Lire la définition →
Mode assist

En mode assist, le système d'IA produit des suggestions qui sont présentées à un humain avant la décision finale. C'est la deuxième étape de notre méthodologie TRACE après le mode shadow.

Lire la définition →
Mode autonome

En mode autonome, le système d'IA prend des décisions sans validation humaine immédiate. C'est la troisième étape de la méthodologie TRACE et celle aux exigences les plus strictes.

Lire la définition →
Human in the loop

Le human in the loop (HITL) désigne une architecture où un humain intervient dans le processus de décision d'un système d'IA - par décision, par échantillon ou en cas d'escalade. Le HITL est obligatoire pour les IA à haut risque au titre de l'article 14 du Règlement IA.

Lire la définition →
Annexe III du Règlement IA

L'annexe III du Règlement IA liste les domaines d'application dans lesquels un système d'IA est considéré sans examen complémentaire comme à haut risque. La liste couvre huit domaines et peut être étendue par actes délégués.

Lire la définition →
SOC 2

SOC 2 (System and Organization Controls 2) est une procédure d'audit américaine de l'AICPA qui examine les contrôles d'un prestataire selon cinq critères : sécurité, disponibilité, confidentialité, vie privée et intégrité du traitement.

Lire la définition →
ISO/IEC 27001

ISO/IEC 27001:2022 est la norme internationale des systèmes de management de la sécurité de l'information (SMSI), certifiable par des organismes accrédités.

Lire la définition →
Carte de modèle (Model Card)

Une carte de modèle (Model Card) est un document structuré qui décrit les caractéristiques d'un modèle d'IA : finalité, données d'entraînement, métriques de performance, limites, biais, frontières d'usage.

Lire la définition →
Observabilité (IA)

L'observabilité d'un système d'IA désigne la capacité à détecter, expliquer et investiguer son comportement en production de manière reproductible, sans modifier le code.

Lire la définition →
Appel de fonction (Function Calling)

Le function calling désigne la capacité d'un modèle de langage à produire des appels structurés vers des fonctions, API ou outils externes, dont les sorties sont ensuite intégrées dans la réponse.

Lire la définition →
Plongement (Embedding)

Un plongement (embedding) est la représentation numérique sous forme de vecteur d'un fragment de texte, d'image ou d'audio, qui permet de mesurer la similarité sémantique comme proximité géométrique.

Lire la définition →
Appel de découverte

Réserver un appel de découverte

Dites-nous ce que vous souhaitez construire. Nous répondons sous un jour ouvré.

Appel de 30 minutes. Sans frais. Sans engagement.