En Mentomy construimos IA empresarial basada en los 9 pilares fundamentales de la IA Responsable cumpliendo de forma exhaustiva el Reglamento de Protección de Datos Europeo (EU GDPR)
y el Reglamento de IA Europeo (EU AI Act) desde el núcleo arquitectónico y en todos nuestros pasos.
La Inteligencia Artificial solo genera valor sostenible cuando es segura, ética, transparente y controlable. En Mentomy, entendemos que la confianza es el fundamento absoluto cuando las organizaciones integran IA en operaciones críticas de negocio.
Nuestra plataforma de IA privada para empresas europeas se construye sobre un marco integral de IA Responsable que no solo cumple con regulaciones como RGPD y el AI Act europeo, sino que las supera mediante un diseño arquitectónico donde la responsabilidad es el principio rector de cada decisión técnica, comercial y ética.
Las empresas europeas enfrentan desafíos únicos: regulaciones estrictas y en evolución, expectativas elevadas de privacidad de clientes y empleados, y la necesidad crítica de mantener soberanía sobre datos estratégicos sensibles.
Mentomy no es solo otra plataforma de IA — somos la primera solución de IA empresarial diseñada específicamente para el mercado europeo, donde la privacidad, la seguridad, la transparencia y la ética no son características opcionales o marketing, sino la arquitectura fundamental técnica y legal que garantiza su éxito a largo plazo.
Esta política describe con precisión técnica y transparencia absoluta cómo implementamos cada uno de los 9 pilares de IA Responsable, ordenados estratégicamente por importancia crítica para la protección de su organización.
Antes de entrar en detalles técnicos y legales, explicamos en términos claros qué hace nuestra plataforma.
Imagine que su empresa tiene un bibliotecario extremadamente inteligente que ha leído todos sus documentos internos: manuales, procedimientos, políticas, reportes, contratos, guías técnicas.
Cuando usted hace una pregunta como "¿Cuál es nuestra política de vacaciones?" o "¿Cómo configuro el servidor de producción?", este bibliotecario:
Eso es Mentomy. Pero en lugar de un humano, es un sistema de Inteligencia Artificial que funciona 24/7, responde en segundos, y trabaja EXCLUSIVAMENTE con la información de su organización.
❌ No es ChatGPT para empresas: ChatGPT sabe cosas generales de internet. Mentomy solo conoce SUS documentos.
❌ No inventa respuestas: Si la información no está en sus documentos, Mentomy lo dice claramente en lugar de especular.
❌ No aprende de sus datos: Sus conversaciones y documentos NUNCA se usan para mejorar modelos de IA de terceros (OpenAI, Google, etc).
❌ No comparte nada: Sus datos están herméticamente aislados. Otras empresas que usan Mentomy no pueden ver ni una coma de su información.
Para quienes quieren entender la tecnología detrás de Mentomy, aquí está el detalle técnico explicado claramente.
Mentomy utiliza una arquitectura llamada RAG que combina dos tecnologías:
Paso a Paso: Qué Sucede Cuando Pregunta Algo
1. Carga de Documentos (Lo que usted hace una vez):
vector numérico (embedding)2. Cuando Hace una Pregunta:
vector numérico3. Generación de la Respuesta:
"Responde SOLO basándote en estos documentos. Si no está ahí, dilo claramente"LLMs puros (como ChatGPT standard): Responden basándose en miles de millones de palabras de internet que "memorizaron" durante entrenamiento. Pueden inventar información plausible pero falsa (alucinaciones).
RAG (como Mentomy): Busca primero en SUS documentos reales, luego formula la respuesta basándose SÓLO en lo encontrado. Las "alucinaciones" se reducen a casi cero porque la IA no puede citar lo que no existe.
Resultado: Respuestas verificables, precisas y fundamentadas en su realidad corporativa, no en información genérica de internet.
Sus Datos, Siempre Confidenciales — El Fundamento Absoluto e Inquebrantable
La privacidad no es una característica adicional en Mentomy; es el fundamento arquitectónico de toda nuestra plataforma. Entendemos que sus datos empresariales son su activo más valioso y crítico. Cada componente, cada línea de código, cada decisión técnica se diseña con la privacidad como principio rector absoluto e inquebrantable.
Mentomy cumple exhaustivamente con el Reglamento General de Protección de Datos (UE) 2016/679, implementando privacidad por diseño y por defecto en toda la arquitectura de la plataforma.
Cada cliente opera en un espacio de trabajo dedicado y herméticamente aislado a nivel de infraestructura física y lógica. Sus datos sensibles nunca se mezclan, cruzan o comparten con los de otros clientes. Aislamiento garantizado mediante tenant isolation multi-nivel.
Solo procesamos los datos estrictamente necesarios para proporcionar el servicio (Art. 5.1.c RGPD). No recopilamos información adicional, metadatos innecesarios, ni datos de uso más allá de lo técnicamente indispensable. Data minimization como principio de ingeniería fundamental.
Mentomy NUNCA utiliza sus datos para entrenar modelos fundacionales propios o de terceros. Sus datos se usan exclusivamente para alimentar su propia IA privada, bajo su total control. Garantía absoluta contractual y técnica.
Cuando elimina un archivo o carpeta, se borra permanentemente e inmediatamente de todos nuestros servidores (servidor de fuentes de datos, servidor con base de datos de clientes y servidor con base de datos vectorial).
Los administradores y usuarios pueden acceder y modificar su información personal disponible en Mentomy, así como acceder a las interacciones y consultas lanzadas al motor de IA (historial del chat).
Los administradores y usuario pueden corregir de forma inmediata y sin demora indebida datos inexactos, incompletos o desactualizados mediante interfaces de administración en tiempo real.
Los administradores pueden eliminar los datos de los usuario de forma permanente, completa y verificable de datos personales cuando se solicita legítimamente.
Los administradores y usuario pueden eliminar de forma completa y verificable la memoria del sistema de IA (memoria del chat).
Los administradores podrán exportar de datos en formatos estructurados estándar (Microsoft Excel, xlsx) y ampliamente utilizados para transferencia directa a otros sistemas sin obstáculos técnicos o legales.
Los administradores y usuarios pueden oponerse legítimamente al procesamiento de sus datos para ciertos fines específicos, incluyendo tratamientos basados en interés legítimo o con fines de marketing directo.
Los administradores pueden limitar temporalmente cómo se procesan datos personales mientras se resuelven consultas, disputas o verificaciones de exactitud, con marcado claro de registros restringidos.
Mantenemos un protocolo robusto y documentado de respuesta a incidentes específico para privacidad con equipos designados y procedimientos probados. En el caso improbable de una brecha de datos personales que presente un riesgo para derechos y libertades, notificaremos a la autoridad de control competente dentro de 72 horas desde conocimiento, conforme al Artículo 33 del RGPD.
Si la brecha presenta alto riesgo para derechos y libertades, notificaremos directamente a los interesados afectados sin dilación indebida (Art. 34 RGPD), con comunicación clara sobre naturaleza, consecuencias, medidas adoptadas y contacto del DPO.
Protección Multicapa de Nivel Militar para Activos Críticos
La seguridad de sus datos es nuestra máxima prioridad operacional. Implementamos medidas de ciberseguridad de nivel empresarial en cada capa de la infraestructura: desde red hasta aplicación, pasando por bases de datos, APIs y procesos de desarrollo. Defensa en profundidad como estrategia central inquebrantable.
Implementamos medidas técnicas y organizativas apropiadas conforme al Artículo 32 RGPD para garantizar seguridad del tratamiento acorde al nivel de riesgo, incluyendo confidencialidad, integridad, disponibilidad y resiliencia de sistemas y servicios.
Los archivos que suben los administradores se almacenan en un bucket privado de Google Cloud Storage (GCS) ubicado en la Unión Europea (Madrid), protegido mediante IAM granular por tenant, encryption at rest AES-256 y VPC Service Controls
Los embeddings generados por la IA se almacenan en Pinecone Serverless (región EU), en índices independientes por tenant para garantizar aislamiento multinivel. Pinecone proporciona: data encryption at rest (AES-256), TLS 1.3 end-to-end, control de acceso basado en API key y protección frente a inyección de vectores maliciosos mediante validación previa.
Información operativa y metadatos —usuarios, consultas, logs, permisos— se almacenan en una
base de datos MySQL/PostgreSQL administrada en Google Cloud SQL con:
Cifrado nativo en reposo AES-256
Cifrado en tránsito TLS 1.3
Aislamiento por instancia y VPC privada
Copias de seguridad automáticas
Reglas estrictas de firewall (solo accesible desde servicios autorizados)
Rotación de claves gestionada por KMS
La arquitectura aplica aislamiento en varias capas:
Aislamiento lógico de ficheros en GCS por empresa
Aislamiento completo de índices Pinecone (índice dedicado por tenant)
Registros segmentados por empresa en la base de datos SQL
Acceso mediante email corporativo por tenant, imposibilitando accesos cruzados
Desde el navegador del usuario hasta GCS, Pinecone y Cloud SQL, todos los datos viajan y se almacenan protegidos con HTTPS, TLS 1.3, AES-256 y validación estricta de integridad (HMAC). Mentomy nunca transmite datos sin cifrar ni utiliza canales inseguros.
Todos los ficheros se procesan en memoria dentro del backend en GCP y se someten a:
detección de formatos maliciosos,
limitaciones por tamaño de fichero, número de ficheros y de espacio para base de conocimiento
sanitización y validación estructural
control anti data-poisoning antes de generar embeddings
Esto evita que documentos manipulados afecten al sistema o contaminen la base vectorial.
Mentomy mantiene alineación estricta con frameworks de seguridad reconocidos internacionalmente y trabaja activamente hacia certificaciones formales: ISO/IEC 27001:2022 (Gestión de Seguridad de la Información), SOC 2 Type II (controles de seguridad, disponibilidad, confidencialidad, integridad de procesamiento), cumplimiento con ENS (Esquema Nacional de Seguridad español RD 311/2022) para administraciones públicas, y alignment con NIST Cybersecurity Framework.
100% Unión Europea — Sus Datos NUNCA Salen de Europa
Para empresas europeas, el control geográfico de datos no es opcional — es fundamental para cumplimiento, soberanía digital y protección contra legislaciones extraterritoriales. Mentomy garantiza residencia de datos 100% en la Unión Europea sin excepciones, sin ambigüedades, sin letra pequeña. Sus datos permanecen en suelo europeo, siempre y para siempre.
Al mantener datos exclusivamente en la UE, Mentomy elimina completamente riesgos y complejidades de transferencias internacionales, evitando requisitos de mecanismos de salvaguarda como SCCs, BCRs o decisiones de adecuación que pueden ser invalidadas judicialmente (caso Schrems II).
Toda su base de conocimiento y datos asociados se alojan exclusivamente en servidores físicos ubicados dentro de la Unión Europea. Actualmente: Google Cloud Storage y Google SQL database ubicados en Madrid, España (Europe-Southwest1), Base de datos vectorial alojada en Google Cloud Platform en Dublin, Irlanda (Europe-West-1) y Motor de Inteligencia Artificial alojado en Amazon Web Services en Frankfurt, Alemania (eu-central-1).
Sus datos NUNCA cruzan fronteras de la UE bajo ninguna circunstancia. No hay transferencias a EE.UU. (CLOUD Act no aplica), China (ley de inteligencia nacional), o cualquier jurisdicción tercera. Ni siquiera para backups o disaster recovery (DR sites también en UE).
Todos los cálculos computacionales, indexaciones de embeddings, queries a LLMs, operaciones de IA, y procesamiento de datos se ejecutan en infraestructura ubicada físicamente en territorio europeo. Ni siquiera procesamiento temporal fuera de la UE.
Al mantener datos exclusivamente en la UE, eliminamos completamente complejidades de Standard Contractual Clauses (SCCs Article 46.2.c), Binding Corporate Rules (BCRs Article 47), Transfer Impact Assessments (TIAs), o mecanismos de transferencia internacional que han sido invalidados o cuestionados judicialmente.
Arquitectura alineada con requisitos del Esquema Nacional de Seguridad (Real Decreto 311/2022, anteriormente RD 3/2010) aplicable a administraciones públicas y proveedores del sector público español que requieren infraestructura nacional y soberanía sobre información clasificada.
Diseño considerando requisitos del Reglamento de IA (UE) 2024/1689 desde fase de arquitectura, incluyendo transparencia sobre ubicación de procesamiento (Art. 13), logs auditables almacenados en UE (Art. 12), y cooperación con autoridades de supervisión europeas (Art. 70-73).
Consulte con nosotros para regulaciones específicas de sectores críticos: Salud (MDR 2017/745, IVDR 2017/746, directivas de e-health), Finanzas (MiFID II, DORA, PSD2, EBA guidelines), Seguros (Solvencia II), Telecomunicaciones (ePrivacy), Defensa (clasificación nacional).
Mentomy ofrece opción de soberanía digital europea frente a proveedores estadounidenses (Google, Amazon, Microsoft, OpenAI) sujetos a CLOUD Act, FISA 702, Executive Order 12333, o proveedores chinos bajo Ley de Inteligencia Nacional que pueden obligar a proporcionar datos a gobiernos extranjeros.
Soporte nativo prioritario para Mistral AI (Francia).
Selección cuidadosa de todos los proveedores de servicios (LLM, cloud, databases, CDN) con evaluación rigurosa de: (1) compromisos contractuales de no usar datos de clientes para entrenamiento, (2) ubicación de procesamiento y almacenamiento, (3) legislación aplicable y jurisdicción, (4) acceso gubernamental potencial.
Si decide usar su propio servidor para almacenamiento de datos podemos integrarnos completamente con sus datos con fees adecuados y sin fricción artificial.
Como empresa europea headquartered en España, contribuimos al desarrollo del ecosistema tecnológico europeo de IA, reduciendo dependencia de monopolios tecnológicos extranjeros, creando empleo cualificado en Europa, y cumpliendo con principios de soberanía digital de la Estrategia Digital Europea.
Apertura Total — Sin Cajas Negras, Sin Sorpresas, Sin Letra Pequeña
Creemos en la transparencia radical sobre cómo funciona nuestra tecnología, cómo procesamos datos y qué limitaciones existen. En un mundo donde muchos proveedores de IA operan como cajas negras impenetrables, nosotros elegimos la claridad absoluta. Transparencia técnica, comercial y ética como diferenciador competitivo fundamental.
Implementamos transparencia exhaustiva conforme al AI Act europeo, proporcionando información clara y comprensible sobre funcionamiento, capacidades, limitaciones y uso apropiado del sistema de IA a usuarios y personas afectadas.
Explicaciones técnicas detalladas (data flow diagrams, architecture diagrams) que documentan claramente cómo fluyen los datos: desde upload inicial → preprocessing → chunking → embedding generation → vector indexing → storage → retrieval → generation → response delivery.
Transparencia total sobre ubicación física exacta de datos. Actualmente: Google Cloud Storage y Google SQL database ubicados en Madrid, España (Europe-Southwest1), Base de datos vectorial alojada en Google Cloud Platform en Dublin, Irlanda (Europe-West-1) y Motor de Inteligencia Artificial alojado en Amazon Web Services en Frankfurt, Alemania (eu-central-1).
Respondemos a preguntas de clientes con honestidad total y brutal, incluso cuando la respuesta no sea la que esperan o la que nos favorece comercialmente. Admitimos limitaciones, errores y áreas de mejora abiertamente. La confianza a largo plazo es más valiosa que una venta a corto plazo.
Los clientes pueden solicitar información adicional sobre cualquier aspecto del procesamiento de sus datos, decisiones de arquitectura, configuraciones de seguridad, o funcionamiento interno del sistema en cualquier momento, recibiendo respuesta documentada técnicamente detallada (salvo secretos comerciales core que protejan propiedad intelectual).
Cuando cometemos errores (técnicos como bugs críticos, operacionales como downtime no planificado, de comunicación como documentación incorrecta), los reconocemos públicamente sin excusas, explicamos causa raíz con post-mortem detallado, y comunicamos medidas correctivas implementadas de forma transparente y oportuna.
Contratos redactados en lenguaje comprensible para no abogados, sin jerga legal confusa innecesaria. Políticas explicadas en términos de negocio reales con ejemplos concretos. Plain language legal documents como principio, complementados con versiones legales formales cuando necesario para enforceability.
Estructura de costes completamente clara: storage costs, token costs, y API calls costs si aplica, sin cargos ocultos, sin sorpresas en facturación, sin aumentos unilaterales sin notificación previa (90 días). Calculadoras de costes disponibles pre-contrato para estimación precisa.
Notificación anticipada obligatoria (mínimo 30 días para cambios materiales, 90 días para cambios significativos en pricing/términos) de cambios en plataforma, políticas, términos de servicio o estructura de precios, con opt-out disponible donde sea aplicable legalmente y explicación clara de impactos.
Procedimiento de cancelación simple, directo y sin dark patterns: autoservicio en dashboard, efectivo al final de período de facturación, sin períodos de lock-in contractual abusivos (compromiso máximo anual negociable), con exportación completa de datos garantizada 30 días antes de cierre definitivo de cuenta.
IA Comprensible — Cada Respuesta Tiene Fuentes Verificables y Razonamiento Auditable
Las decisiones de IA no deben ser cajas negras misteriosas e impenetrables. Proporcionamos transparencia técnica exhaustiva sobre cómo se generan las respuestas, con trazabilidad completa a documentos fuente específicos. En Mentomy, usted siempre puede entender, verificar, auditar y cuestionar exactamente por qué la IA respondió de cierta manera.
Proporcionamos explicaciones significativas sobre la lógica aplicada en respuestas de IA, conforme al espíritu del RGPD sobre decisiones automatizadas y requisitos específicos del AI Act sobre explicabilidad para sistemas de alto riesgo y documentación técnica.
Con cada respuesta, Mentomy ofrece las fuentes de datos (archivos) originales utilizadas para generar la respuesta. Los usuarios pueden hacer clic y abrir directamente dichas fuentes de datos, verificando exactitud de interpretación y entendiendo matices que la IA pudo simplificar en su respuesta sintética.
En la visualización de fuentes de datos (por ahora documentos PDF), resaltamos automáticamente con color distintivo las secciones y frases específicas que la IA utilizó directamente para construir su respuesta, permitiendo verificación visual rápida de exactitud de citas y fidelidad a fuente original sin parafraseo excesivo.
Mostramos métricas de confianza / similitud (cosine similarity scores 0-1) que indican matemáticamente qué tan relevante es la fuente de datos recuperada para la consulta realizada, permitiendo evaluar confianza objetivamente. El score puede tener valores desde 0 a 1, siendo 1 la mayor relevancia / coincidencia posible.
Para cada respuesta, la IA devuelve una explicación / justificación del porqué de dicha respuesta y de cómo se llegó a ella. Por ejemplo: "Esta respuesta se basa en la sección 1.4 titulada 'Política de Vacaciones' donde se indica que el número de días de vacaciones son 22."
Los administradores pueden revisar el historial completo de consultas de los usuarios de su organización, filtrado para un rango de fechas. Este reporte incluye: la fecha y hora exacta de la interacción, el usuario responsable, las preguntas realizadas y las respuestas generadas por IA. Dicha información es descargable a Microsoft Excel (xlsx).
Los administradores pueden revisar el historial completo de las interacciones de los usuarios de su organización en Mentomy. Entre los reportes disponibles se encuentran: demografía (acceso en un rango de tiempo), interacción (duración de las sesiones), y retroalimentación (botón 'Me gusta' o 'No me gusta'). Dicha información es descargable a Microsoft Excel (xlsx).
Marco Ético Integral — IA Alineada con Valores Humanos Fundamentales
Más allá del cumplimiento legal mínimo, nos guiamos por principios éticos profundos que garantizan que nuestra IA beneficie a la sociedad y respete la dignidad humana fundamental. La ética no es una capa superficial añadida cosméticamente al final — es el fundamento filosófico que guía nuestro diseño técnico, nuestras decisiones de producto y cómo nos relacionamos con clientes, empleados y sociedad.
Nuestro marco ético se alinea con principios internacionales establecidos por organizaciones multilaterales y autoridades éticas reconocidas, comprometiéndonos con desarrollo y despliegue de IA que respete derechos humanos fundamentales, dignidad, autonomía, y bienestar social.
La IA de Mentomy es una herramienta de asistencia y augmentation de capacidades humanas, NO un reemplazo de toma de decisiones humanas en asuntos significativos. Los usuarios mantienen siempre control final y autoridad decisoria sobre decisiones importantes. No diseñamos IA para manipular, persuadir coercitivamente o explotar vulnerabilidades cognitivas o emocionales humanas.
Nos comprometemos proactivamente a prevenir que nuestra tecnología cause daños a individuos, grupos vulnerables o sociedad en general. Evaluación sistemática obligatoria de riesgos éticos antes de lanzar funcionalidades nuevas significativas. Consideración especial explícita de impactos potenciales en poblaciones vulnerables (niños, ancianos, personas con discapacidades cognitivas).
Aspiramos genuinamente a generar valor positivo neto para sociedad europea, no solo beneficios comerciales privados a corto plazo. Democratización de acceso a conocimiento dentro de organizaciones. Contribución a soberanía digital europea reduciendo dependencia de monopolios extranjeros. Optimización de uso de recursos computacionales para minimizar huella de carbono e impacto ambiental.
Asumimos responsabilidad explícita moral y, cuando aplicable legalmente, por comportamiento de nuestros sistemas de IA y sus consecuencias previsibles. Canales claros de reporte de problemas éticos. Protocolo formal de investigación y corrección rápida de issues éticos identificados. Claridad contractual sobre división de responsabilidades legales entre Mentomy y clientes usuarios finales.
Mentomy no facilita, habilita técnicamente, ni participa de ninguna manera en sistemas de vigilancia masiva indiscriminada de poblaciones, scoring social intrusivo estilo social credit systems, o control autoritario de ciudadanos que viole derechos fundamentales a privacidad y libertad. Rechazamos activamente casos de uso que consideremos éticamente problemáticos incluso si son legales técnicamente.
No diseñamos funcionalidades específicamente orientadas a monitoreo invasivo excesivo de empleados que viole dignidad laboral o privacidad en workplace. Uso de sistemas de IA para gestión de RRHH debe ser transparente para trabajadores, consentido cuando legalmente requerido, y respetar derechos laborales fundamentales incluyendo protección contra discriminación algorítmica en hiring/firing/promotion.
Implementamos controles técnicos y educamos a clientes para respetar derechos de autor de contenidos en bases de conocimiento. Orientamos proactivamente a clientes sobre uso legal apropiado de material protegido por copyright, limitaciones de fair use, y riesgos de infringement. No facilitamos knowingly piratería o violación sistemática de IP rights.
Trabajo técnico activo y continuo para prevenir que nuestros sistemas perpetúen, amplifiquen o codifiquen algorítmicamente discriminaciones sociales existentes presentes en documentos de entrada históricos o contextos culturales. Esto incluye detección de lenguaje discriminatorio en respuestas, sesgos en ranking, y recomendaciones que puedan resultar en tratamiento desfavorable injustificado.
Prohibición contractual absoluta de uso de plataforma para: generar contenido discriminatorio u odio (hate speech), crear desinformación deliberada a escala (disinformation campaigns), producir deepfakes no consentidos con intención maliciosa, facilitar manipulación psicológica dañina, o cualquier uso que incite violencia, acoso o daño contra personas o grupos protegidos.
Comunicamos honestamente qué problemas éticos complejos aún no hemos resuelto completamente de forma satisfactoria, qué trade-offs éticos inevitables enfrentamos (ej: transparencia vs confidencialidad, fairness individual vs grupal), y qué áreas requieren más investigación e innovación. No pretendemos tener respuestas perfectas para todos los dilemas éticos de IA avanzada.
Usted Mantiene el Control Total — La IA es su Herramienta, No su Amo
La IA debe ser siempre una herramienta que usted controla completamente, nunca un sistema autónomo que opera sin supervisión humana. En Mentomy, el humano es siempre el decisor final. Implementamos controles granulares que garantizan que la IA opera exactamente según sus especificaciones, permisos y políticas organizacionales.
Implementamos mecanismos robustos de supervisión humana (human oversight) conforme a requisitos del AI Act europeo para sistemas de alto riesgo, garantizando que personas físicas puedan comprender, intervenir y supervisar efectivamente el sistema de IA.
Defina roles precisos (Admin / Usuario) con permisos específicos y granulares de acceso a carpetas, documentos, funcionalidades y APIs. Su IA solo responde con información que el usuario está explícitamente autorizado a ver según matriz de permisos configurada.
Organice su base de conocimiento en estructuras jerárquicas para diferentes equipos, proyectos activos/archivados, niveles de confidencialidad (público, interno, confidencial, secreto), o necesidades de negocio específicas con herencia y override de permisos.
Los permisos pueden modificarse, suspenderse o revocarse instantáneamente con efecto inmediato (<1 segundo) en las capacidades de la IA sin latencia ni ventanas de propagación. Critical para casos de terminación laboral, cambio de rol, o incidentes de seguridad.
Usted define políticas de retención personalizadas: cuánto tiempo se mantienen datos (días, meses, años), cuándo se archivan automáticamente a cold storage, cuándo se eliminan permanentemente.
Al eliminar archivos o carpetas, se borran permanente e instantáneamente de todos nuestros servidores.
Puede pausar temporalmente o desactivar completamente su instancia de IA cuando lo desee sin penalizaciones contractuales, con capacidad de reactivación posterior manteniendo toda la configuración, datos y permisos exactamente como estaban. Útil para auditorías o cambios organizacionales.
En Mentomy, usted es el dueño absoluto e indiscutible de su sistema de IA. No tomamos decisiones unilaterales sobre su configuración, sus datos o sus políticas sin su consentimiento explícito previo. La IA facilita información, proporciona sugerencias y recomendaciones basadas en datos, pero nunca toma decisiones críticas de negocio ni actúa autónomamente sin su supervisión directa y consentimiento informado.
Este principio de supremacía del control humano es inquebrantable en nuestra arquitectura técnica, contractual y ética, conforme al Artículo 14 del AI Act que exige supervisión humana efectiva para sistemas de alto riesgo.
Precisión, Veracidad y Robustez — IA que Funciona Incluso Bajo Presión
Nos esforzamos obsesivamente por garantizar que las respuestas de IA sean precisas, verificables, fundamentadas en datos reales, y que el sistema opere de forma confiable incluso en condiciones adversas. Veracidad significa fundamentación rigurosa en fuentes. Robustez significa operación estable y predecible bajo carga, errores parciales, o intentos de manipulación.
Implementamos medidas técnicas para garantizar exactitud apropiada, robustez y ciberseguridad del sistema de IA conforme al AI Act, incluyendo testing exhaustivo, validación continua, y capacidad de operar de forma fiable y segura durante todo su ciclo de vida.
Todas las respuestas se construyen EXCLUSIVAMENTE basándose en documentos de la base de conocimiento del cliente mediante arquitectura RAG (Retrieval-Augmented Generation), reduciendo dramáticamente alucinaciones típicas de LLMs puros que generan información plausible pero fabricada sin fundamentación factual. Grounding obligatorio en retrieved context.
Cada afirmación factual en respuestas incluye referencia específica explícita a documento fuente con hipervínculo directo que el usuario puede hacer clic y revisar inmediatamente para verificar exactitud, contexto completo, y detectar interpretaciones erróneas o simplificaciones excesivas de la IA. Zero claims sin respaldo documental.
Métricas de confianza basadas rigurosamente en similarity scores cuantitativos entre consulta y documentos recuperados (cosine similarity en embedding space), indicando objetivamente qué tan segura está la IA sobre precisión de su respuesta: High confidence (>0.85), Medium (0.7-0.85), Low (<0.7 - advertencia al usuario de verificar cuidadosamente).
La IA está específicamente instruida mediante system prompts y fine-tuning de comportamiento para admitir honestamente cuando NO tiene suficiente información en la base de conocimiento, en lugar de inventar o especular con respuestas fabricadas. Frases como "No encontré información específica sobre...", "Los documentos disponibles no cubren...", "Necesitaría más contexto para..."
Diseño técnico específicamente optimizado para minimizar hallucinations: retrieval robusto con reranking (BGE cross-encoder), context grounding estricto en prompts (instrucciones explícitas: "Answer ONLY based on provided context"), prompts de sistema que penalizan severamente generaciones no fundamentadas, y post-processing validation que detecta inconsistencias entre respuesta y contexto.
En Mentomy llevamos a cabo testing de forma periódica. Para ello, usamos benchmarks curados manualmente con ground truth conocidopara para evaluar precisión, relevancia, coherencia, exhaustividad y ausencia de hallucinations de respuestas a lo largo del tiempo y actualizaciones de sistema.
Revisión periódica sistemática por expertos humanos domain-specific de respuestas generadas en casos críticos de uso (compliance, legal, finanzas, médico, seguridad) con feedback estructurado mediante rúbricas cuantitativas, identificando edge cases problemáticos y alimentando mejoras de prompts y retrieval.
Mecanismos integrados en UI (thumbs up/down, report, comentarios detallados) para que usuarios finales reporten respuestas incorrectas, incompletas, sesgadas, o problemáticas, con proceso de revisión humana que investiga root cause, corrige el issue específico, y alimenta mejoras continuas del sistema de forma iterativa.
Seguimiento continuo automatizado de KPIs críticos: relevancia promedio de retrieval (target >0.80), tasa de respuestas sin fuentes suficientes (target <5%), latencia end-to-end (<10s), satisfacción de usuario (CSAT survey), con alertas automáticas ante degradación significativa.
IA Justa y Equitativa — Sin Sesgos, Sin Discriminación, Sin Favoritismos
La equidad es imprescindible para evitar decisiones sesgadas o tratamientos injustos sistemáticos. Nos comprometemos activamente a que nuestra IA trate a todos los usuarios y casos de uso de manera equitativa, sin discriminación basada en características protegidas, sin sesgos algorítmicos injustificados, y sin favorecer artificialmente ciertos resultados sobre otros.
Implementamos medidas técnicas y organizativas para prevenir discriminación ilícita y promover fairness conforme a requisitos del AI Act sobre no discriminación, pruebas con datos representativos, y mitigación de sesgos que puedan resultar en tratamiento desfavorable injustificado de personas o grupos.
Trabajamos únicamente con proveedores de LLMs (Mistral AI) que demuestran compromisos públicos documentados y verificables con mitigación exhaustiva de sesgos en sus procesos de entrenamiento masivo (filtrado de datos tóxicos, RLHF con diverse raters, red teaming extensivo), evaluación continua (benchmarks de fairness como BBQ, BOLD), y transparencia sobre limitaciones conocidas.
Al utilizar exclusivamente la base de conocimiento proporcionada y curada por el cliente (documentos corporativos, políticas internas, knowledge bases profesionales) mediante arquitectura RAG, reducimos significativamente riesgos de sesgos externos no deseados introducidos por datasets de entrenamiento masivos de internet que contienen inevitablemente sesgos sociales históricos.
Realizamos pruebas periódicas programadas (mensual) con conjuntos de casos de uso deliberadamente diversos: diferentes industrias (tech, healthcare, finance, legal), tipos de consulta (factual, analytical, creative), y cuando relevante para el dominio, escenarios que cubren demografías variadas, identificando y corrigiendo comportamientos sesgados mediante ajustes de prompts, retrieval o modelos.
Revisión sistemática humana experta + automatizada (NLP bias detection tools) de respuestas generadas para detectar patrones de sesgo potencial en: lenguaje utilizado (gendered language, stereotypes), recomendaciones o priorizaciones injustificadas, sobre-representación de ciertas perspectivas vs otras, con corrección mediante prompt engineering o fine-tuning cuando se detectan sesgos sistemáticos.
Documentamos abiertamente y honestamente sesgos conocidos inherentes a modelos fundacionales LLM utilizados (ej: sesgos lingüísticos hacia inglés, sobre-representación de perspectivas occidentales, performance asimétrica en diferentes demographics) y sus limitaciones en ciertos contextos culturales, lingüísticos o de dominio específico, sin pretender haber "resuelto" completamente el problema de bias en IA.
Nuestro sistema RBAC (Role-Based Access Control) se fundamenta exclusivamente en criterios organizacionales legítimos y funcionales (rol laboral, departamento, proyecto, nivel de confidencialidad), NUNCA en características personales protegidas por ley (raza, género, religión, orientación sexual, origen nacional, edad, discapacidad). Architecture-level garantees contra discriminación.
Soportamos múltiples idiomas europeos principales (español, inglés, francés, alemán, italiano, portugués) con calidad de respuesta equivalente testada mediante benchmarks multilingües, evitando barreras lingüísticas en acceso a información crítica empresarial y promoviendo inclusión de trabajadores no nativos en idioma corporativo dominante.
La IA no favorece artificialmente ciertos documentos, fuentes privilegiadas o respuestas sobre otros excepto por relevancia técnica objetiva medida algorítmicamente mediante similarity scores en vector space. No hay "boosting" manual de ciertos contenidos, autores o departamentos. Ranking puro basado en relevancia semántica matemática.