
Certificación Compromiso con la IA Responsable
Refuerza la IA responsable, facilita el cumplimiento normativo, reduce riesgos y demuestra compromiso público.
Transforma tu estrategia en confianza: haz visibles tus compromisos en Inteligencia Artificial con AENOR
En un entorno competitivo, las organizaciones se enfrentan al desafío de conectar con sus grupos de interés y comunicar de forma clara y transparente el valor de sus estrategias, alineándolas con las expectativas y preocupaciones de clientes y usuarios. Solo así se logra rentabilizar los esfuerzos estratégicos, traduciéndolos en mensajes relevantes que generen confianza y fortalezcan la relación con el público objetivo.
En este contexto, la adopción generalizada por parte de todo tipo de organizaciones de Inteligencia Artificial como aliado en todos sus procesos conlleva desafíos que requieren comunicar a los grupos de interés el uso responsable y transparente que se hace de esta herramienta. Y hacerlo de manera pública y consistente a través de AENOR.
Como respuesta a esta necesidad, AENOR lanza una serie de soluciones integrales que atienden a esta necesidad, entre las que destaca la certificación “Compromiso con la IA Responsable”, que se realiza conforme a la Especificación Privada AENOR EP 40201:2025 Organizaciones Comprometidas con un Uso Responsable de la IA” y con la que las organizaciones que la apliquen comunican y se posicionan en un ámbito tan desafiante.
Todo ello en base a un decálogo de compromisos previamente definidos y personalizables y facilitando el acceso posterior a otros niveles de certificación basados en normativas como ISO/IEC 42001 de Gestión de la IA o ISO/IEC 24368 de Uso Ético de la IA.
Es aplicable a todo tipo de empresas y entidades públicas, siendo especialmente valiosa para aquellas orientadas al consumidor (B2C/B2B2C), ya que fortalece la confianza, la diferenciación y el liderazgo responsable.
La certificación “Compromiso con la IA Responsable” facilita el establecimiento de un marco de gobernanza y reducción de riesgos, paso previo alineado con normas como ISO/IEC 42001, y apoya el cambio cultural necesario para su adopción.
Incluye compromisos obligatorios y otros voluntarios que cada organización puede definir según su estrategia, riesgos y usos de la IA. Con ello, se establece un marco flexible y progresivo que fortalece la confianza pública y prepara a las entidades para cumplir con el Reglamento Europeo de Inteligencia Artificial y la legislación española. Así, el sello AENOR no sólo reconoce buenas prácticas, sino que impulsa un modelo de responsabilidad y transparencia en la gestión de la IA.
Beneficios principales
-
Refuerza la estrategia de IA responsable.
-
Genera confianza en clientes y reguladores.
-
Facilita el cumplimiento normativo, particularmente la ISO/IEC 42001.
-
Reduce riesgos reputacionales y legales.
-
Permite una implantación rápida.
-
Demuestra públicamente el compromiso asumido, acompañado de AENOR.
-
Potencia la transparencia.
Compromiso con la IA Responsable
Solicita informaciónSectores relacionados
-
Esta solución es adecuada para cualquier organización, e independientemente de su tamaño, tipo y naturaleza, y tanto para el sector público como el privado.
-
Resulta de especial interés para las organizaciones que usan sistemas de IA que pueden tener riesgos o impactos relevantes en el negocio, la sociedad, los individuos o grupos de individuos, o que podrían llegar a tenerlos en casos de usos indebidos.
Integración con otras soluciones
Documentación
-
Reglamento General de Certificación de Sistemas de Gestión y de sus marcas de conformidad.
-
Los clientes pueden solicitar la Especificación AENOR al correo info@aenor.com
Cursos
Normas
En el ámbito de la IA responsable y ética hay distintas normas, así como actualmente se están desarrollando varias más tanto a nivel de ISO/IEC como a nivel de CEN/CENELEC. A continuación se recogen algunas consideradas de referencia:
-
UNE-EN ISO/IEC 22989:2023 Tecnología de la información. Inteligencia artificial. Conceptos y terminología de inteligencia artificial (ISO/IEC 22989:2022) (Ratificada por la Asociación Española de Normalización en agosto de 2023.)
-
ISO/IEC TR 24368:2022 Information technology — Artificial intelligence — Overview of ethical and societal concerns
-
ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system
-
ISO/IEC 42005:2025 Information technology — Artificial intelligence (AI) — AI system impact assessment