Las empresas que desarrollan software para productos sanitarios están incorporando sistemas de inteligencia artificial en funciones de apoyo al diagnóstico, análisis de datos clínicos, monitorización y toma de decisiones. Sin embargo, el uso de modelos cerrados, opacos o de entrenamiento desconocido plantea un obstáculo regulatorio creciente. Tanto el MDR como el AI Act exigen demostrar control técnico, trazabilidad del modelo, comprensión de los datos utilizados y capacidad de validar el rendimiento en condiciones clínicamente relevantes. Estos requisitos no pueden cumplirse cuando el sistema operativo depende de modelos no auditables o desarrollados sin acceso al procedimiento de entrenamiento, pesos, arquitectura o proceso de actualización.
El desarrollo de IA para uso sanitario requiere adoptar modelos de arquitectura abierta y verificable, que permitan documentar cada etapa del ciclo de vida del sistema. Los organismos notificados y las autoridades europeas están pidiendo evidencias explícitas sobre la estructura interna del modelo, los métodos de reducción de sesgo, el control de versiones, el impacto de cada actualización y la trazabilidad de los datos empleados para ajuste y validación. La imposibilidad de describir estos puntos constituye una no conformidad directa en la evaluación de la función esencial de un software calificado como dispositivo médico.
El marco del MDR establece que el fabricante debe demostrar el funcionamiento seguro del software, justificar los algoritmos utilizados y presentar la documentación técnica que permita comprender el comportamiento del sistema en escenarios esperados y razonablemente previsibles. Para sistemas de IA adaptativa o entrenados con datos dinámicos, la obligación es todavía mayor: es necesario describir las reglas de actualización, los criterios de aceptación y las medidas para evitar degradación del rendimiento clínico. Solo los modelos que permiten inspección técnica y documentación interna proporcionan la base para cumplir con estas expectativas.
El AI Act refuerza este enfoque introduciendo obligaciones específicas de transparencia, explicabilidad, control humano, gobernanza de datos y monitorización poscomercialización. Los sistemas utilizados en aplicaciones sanitarias están clasificados como de alto riesgo y, por tanto, deben cumplir requisitos estrictos en materia de diseño, documentación, auditoría del modelo y gestión del ciclo de vida. El fabricante debe poder demostrar cómo se entrenó la IA, bajo qué condiciones, con qué dataset, cuál fue el proceso de evaluación y qué mecanismos existen para reproducir los resultados. Un modelo cerrado sin trazabilidad hace imposible cumplir estas exigencias, comprometiendo tanto la comercialización en Europa como la obtención del certificado CE.
A nivel operativo, los desarrolladores que intentan integrar IA en productos sanitarios se encuentran con tres dificultades recurrentes:
- Falta de acceso al proceso de entrenamiento, que impide justificar la idoneidad del modelo para el contexto clínico.
- Imposibilidad de reproducir resultados debido a la naturaleza cerrada o dinámica del modelo.
- Dificultad para generar documentación técnica conforme a MDR y AI Act cuando no se conocen los parámetros internos, las fuentes de datos ni los mecanismos de actualización.
Estas limitaciones tienen un impacto directo en la certificación CE: sin trazabilidad del modelo, la validación es incompleta; sin validación completa, no existe conformidad regulatoria.
Por ello, el sector se está orientando hacia modelos de IA abiertos, verificables y controlables, que faciliten evidencias robustas en auditoría: control sobre los pesos, capacidad de revisión externa, mecanismos de documentación del entrenamiento, análisis reproducible de resultados, disciplina en el versionado y una gobernanza clara del ciclo de vida del algoritmo. Estos elementos permiten construir un expediente técnico sólido y cumplir simultáneamente con los requisitos funcionales del MDR y del AI Act.
Las empresas que deseen comercializar software sanitario basado en IA deben evaluar la arquitectura que utilizan y determinar si es posible cumplir con las obligaciones de documentación, trazabilidad y validación exigidas por la regulación europea. En muchos casos, la migración a modelos abiertos y auditables no es una opción estratégica, sino una condición necesaria para garantizar que el dispositivo pueda certificarse, mantenerse actualizado y superar auditorías de organismos notificados.
ASC Services acompaña a desarrolladores y fabricantes en la definición de su estrategia de IA, la evaluación de conformidad regulatoria, la documentación técnica del modelo, la gestión del riesgo algorítmico y la preparación de los requisitos exigidos por MDR y AI Act. Las empresas que necesiten asegurar que su sistema de IA es apto para certificación CE pueden solicitar una revisión técnica o un análisis preliminar a través de web@ascservices.es.