El 11 de septiembre de 2023, la Comisión Europea publicó en su página oficial el documento Cybersecurity of Artificial Intelligence in the AI Act, Guiding principles to address the cybersecurity que contiene los requisitos de ciberseguridad necesarios para los sistemas de inteligencia artificial (IA) de alto riesgo.
La propuesta de Ley sobre Inteligencia Artificial de la Comisión Europea representa un paso importante en la regulación de la inteligencia artificial para abordar los riesgos para la salud, la seguridad de los sistemas de IA y los derechos fundamentales asociados a estas tecnologías.
En cuanto a la ciberseguridad, regulada por el artículo 15 de la Ley de IA, los sistemas de IA de alto riesgo deben estar diseñados para resistir los intentos de alterar su uso, comportamiento y rendimiento y comprometer sus propiedades de seguridad.
En particular:
- un sistema de IA puede incluir uno o varios modelos de IA, o incluso interfaces, sensores, bases de datos, componentes de comunicación en red, unidades informáticas o sistemas de supervisión; sin embargo, los requisitos de ciberseguridad deben aplicarse al sistema de IA en su conjunto y no directamente a sus componentes individuales.
- Se requiere una evaluación del riesgo, teniendo en cuenta la arquitectura interna del sistema de IA y su contexto de aplicación. Concretamente, pueden identificarse dos niveles de evaluación de riesgos: una evaluación de riesgos de ciberseguridad y una evaluación de riesgos reglamentaria de nivel superior que implica varios requisitos, tal como se describe en el artículo 9. La evaluación de riesgos pretende identificar los riesgos específicos, traducir los requisitos de seguridad informática de nivel superior y aplicar las medidas de implementación necesarias.
- La protección de los sistemas de IA requiere un enfoque integrado y continuo que utilice prácticas probadas y controles específicos. Este proceso debe explotar los procedimientos actuales de seguridad informática, utilizando una combinación de controles existentes para los sistemas de software y medidas específicas para los modelos de IA.
- El panorama actual incluye una amplia variedad de tecnologías con distintos grados de complejidad, que van desde los modelos tradicionales de aprendizaje automático hasta las últimas arquitecturas de aprendizaje profundo. Sin embargo, no todas las tecnologías pueden estar listas para su uso en sistemas de IA de alto riesgo a menos que se aborden adecuadamente sus limitaciones de ciberseguridad.
Los sistemas de Inteligencia Artificial están experimentando una rápida transformación, elevando el nivel tecnológico y la eficacia de los Dispositivos Médicos. Sin embargo, la IA alberga varios escollos y amenazas que deben abordarse adecuadamente, como la seguridad de los datos sensibles. Precisamente por estas razones, la Ley de IA adquiere especial relevancia, convirtiéndose en un elemento crucial para garantizar la seguridad en los sistemas de alto riesgo.
>> A través de los servicios de Consultoría Estratégica-Reglamentaria, apoyo para la Certificación CE – incluyendo la validación de software, los servicios de control de ciberseguridad y en caso necesario, Representante Europeo Autorizado, Thema puede ayudarle a implementar los requisitos del Reglamento de Productos Sanitarios MDR (UE) 2017/745.
Fuente: