Conocimiento interno fundamentado en sus propios documentos
La IA de conocimiento interno aplica recuperación aumentada para responder preguntas de empleados, acelerar la incorporación y exponer políticas o cumplimiento desde sus propios documentos. Impetora entrega estos sistemas con citas en cada respuesta, deflectando el 92% de las consultas rutinarias y ahorrando 11 minutos por empleado y día.
01.¿Qué es la IA de conocimiento interno?
La IA de conocimiento interno describe sistemas que responden preguntas de empleados recuperando de su propio corpus de políticas, manuales operativos, contratos, material de formación y decisiones históricas, y generando una respuesta fundamentada con las cláusulas de origen citadas. La categoría abarca asistentes Q&A, aceleradores de incorporación, búsqueda de cumplimiento, asistentes de capacitación comercial y búsqueda de políticas en RRHH, jurídico y finanzas.
El análisis de McKinsey sobre el potencial económico de la IA generativa coloca la gestión de conocimiento entre las categorías de mayor confianza, contribuyendo significativamente a la oportunidad anual de 2,6 a 4,4 billones de USD que describe el informe. La razón: los datos son acotados, la métrica es medible, y el usuario es su propio empleado, que detecta una respuesta errónea más rápido que un cliente externo.
03.¿Cómo lo resuelve TRACE?
Trust
Readiness
Architecture
Citations
Confianza. Toda recuperación, inferencia y log de conversación corre en regiones UE, con acceso por rol alineado con su SSO y sus ACL. Un empleado que pregunta sobre finanzas nunca ve fragmentos a los que no tendria acceso en el sistema fuente. Cumple obligaciones de transparencia del artículo 13 del Reglamento de IA: el empleado ve la divulgación de capacidad y limitación en la superficie del asistente.
Preparación. Muestreamos preguntas reales de canales existentes (hilos de Slack, tickets de soporte) antes de elegir modelo. Arquitectura. Indices de recuperación versionados por dominio, con refresco que actualiza en minutos cuando cambian las fuentes. Citas y evidencia. Cada respuesta enlaza con el párrafo y versión exactos del documento. Un empleado puede verificar; cumplimiento puede demostrar que política regía en el momento.
05.¿Qué resultados medibles cabe esperar?
92% de consultas rutinarias resueltas sin transferencia, en línea con el AI Index de Stanford HAI: sistemas de recuperación fundamentada alcanzan 90-95% de exactitud cuando el recall de recuperación supera el 85%. Tiempo ahorrado por empleado: 11 minutos diarios de media, conservador frente a las cifras publicadas de 30-60 minutos porque solo contamos interacciones verificables y deflectadas.
El tiempo a productividad en incorporación cae de 14 días a 3 días para el conocimiento de política, herramientas y proceso que cubre el asistente. La cobertura de auditoría es del 100%: cada consulta, recuperación y respuesta queda en el log con linaje completo, listo para revisión de cumplimiento.
02.¿Cómo funciona tradicionalmente?
Sin IA, el conocimiento interno vive en una pila fragmentada: una intranet con páginas obsoletas, un Confluence con propiedad inconsistente, un portal de RRHH tras SSO, un Slack o Teams donde se acumula memoria institucional, y una cola de empleados que envían mensaje directo a los mismos cinco expertos. Un empleado medio dedica de 1,8 a 2,4 horas diarias buscando o recreando información que no encuentra.
La incorporación amplifica el coste. El análisis de IBM sobre incorporación sitúa el coste medio por contratación cerca de 4.000 USD y la ventana de recuperación de productividad en 14 a 21 días en sectores regulados. La solución tradicional, formar más expertos internos y escribir más wikis, tiene mala economía: el wiki se queda obsoleto más rápido de lo que se escribe.
04.¿Cómo es la arquitectura?
Cuatro componentes en serie. Ingesta: conectores con sus repositorios (SharePoint, Drive, Confluence, Notion, CMS interno, gestión de contratos) con indexación consciente de ACL. Procesamiento: chunking, embeddings, recuperación hibrida combinando semantica y palabra clave, con re-ranker afinado a su conjunto de evaluación.
Revisión: la superficie de respuesta (bot Slack, app Teams, widget en portal) muestra la respuesta con fragmentos citados expandibles. Los empleados puntuan con un clic; la puntuación entra en el conjunto de evaluación. Entrega: evento estructurado al log de auditoría por cada consulta, con identidad de usuario, fragmentos, versión y respuesta. El log es consultable por cumplimiento y RRHH.
06.¿Cuánto dura un despliegue?
Primer piloto en producción en 4 semanas para un dominio (RRHH, soporte TI, política financiera, capacitación comercial). Fase 1 (1-2 sem.): inventario documental, auditoría ACL, muestreo de preguntas, validación de alcance. Fase 2 (3-4 sem.): construcción y modo sombra para grupo piloto. Fase 3 (5-11 sem.): extensión a dominios adicionales y al conjunto de empleados, con 1 a 2 semanas de evaluación por dominio.
07.¿Cuánto cuesta?
Pilotos desde 25.000 EUR para un dominio. Despliegues completos en tres a cinco dominios con SSO, recuperación consciente de ACL e integración de log de auditoría entre 60.000 y 150.000 EUR. Envíe un proyecto para estimación.
Frequently asked questions
¿El sistema ve documentos a los que el empleado no tiene acceso?
No. La capa de recuperación indexa documentos preservando los ACL del sistema fuente como metadatos, y cada consulta filtra recuperación por documentos accesibles para el empleado. Si un registro RRHH está restringido al equipo de RRHH en SharePoint, un ingeniero recibe la misma respuesta de no-encontrado que recibiría navegando al sistema fuente. No entrenamos ningún modelo con sus documentos. La auditoría ACL durante preparación es innegociable; no desplegamos sin ella.
¿Cómo se mantiene actualizado?
Los documentos se monitorizan por API nativa (SharePoint, Drive, Confluence, Notion), con refresco incremental que reindexa páginas modificadas en minutos. El índice versiona documentos, de modo que el log de auditoría puede demostrar que versión regía. Para dominios críticos como cumplimiento y finanzas mantenemos un paso de aprobación manual antes de que un cambio llegue al índice.
¿Se integra con Slack y Teams?
Sí. Integraciones nativas con Slack y Microsoft Teams, con contexto conversacional preservado y respeto a sus políticas DLP. También widget web para portal, API para interfaces propias, y app web protegida por SSO. El log de auditoría es idéntico en todas las superficies.
¿Qué hay de las alucinaciones?
Tres controles. Recuperación obligatoria: si ningún fragmento supera el umbral, el asistente responde no-encontrado con propietario humano sugerido. Plantilla con instrucción explicita de fundamentar y no responder fuera de alcance. Feedback del empleado escribe al conjunto de evaluación; informes semanales comparan con set fijo y reajustamos cuando un dominio se desvía.
¿Es solo un chatbot?
Más. Cubre cuatro patrones: Q&A en chat, búsqueda estructurada con extracción deterministica, flujos de incorporación con seguimiento de progreso, y consultas auditables que devuelven la cláusula y la fecha-versión. Diferentes dominios prefieren patrones distintos; los definimos en preparación. La infraestructura compartida es una capa de recuperación y auditoría; las superficies y plantillas se afinan por caso.
¿Cómo gestiona varios idiomas?
Multilingue nativo en castellano, catalan, gallego, vasco, ingles, frances, alemán, italiano, lituano y otros idiomas europeos. Cada idioma tiene su propio índice por dominio, conjunto de evaluación en idioma y umbrales calibrados. Un empleado puede preguntar en castellano sobre un corpus en ingles; el asistente recupera, fundamenta y responde en castellano con citas al original. Las etiquetas de idioma viajan al log para revisión de cumplimiento por locale.