miércoles, 21 de agosto de 2024

MITRE ATLAS: ¿Cómo se puede atacar a las IA?

MITRE ATLAS es un framework que sistematiza las tácticas y técnicas empleadas por los actores maliciosos para atacar a los sistemas de Inteligencia Artificial

Tanto los organismos públicos a cargo de velar por la ciberseguridad del tejido productivo y la ciudadanía, como las compañías especializadas en ciberseguridad han alertado de que la Inteligencia Artificial puede incrementar el número de ciberataques y su impacto. Pero no debe preocuparnos, solo, el uso malicioso de sistemas de IA, sino también la propia seguridad de los modelos de aprendizaje automático y de los grandes modelos de lenguaje (LLM, por sus siglas en inglés).

Para contribuir al fortalecimiento de la seguridad de los sistemas de Inteligencia Artificial, la organización sin ánimo de lucro MITRE ha desarrollado MITRE ATLAS, un framework que sistematiza y define las tácticas y técnicas que pueden emplear los actores hostiles para diseñar y ejecutar ataques contra grandes modelos de lenguaje.

A continuación, vamos a desgranar las claves de MITRE ATLAS y su utilidad a la hora de comprender las tácticas, técnicas y procedimientos que los actores hostiles pueden desplegar contra los sistemas de IA y anticiparse a ellos.

1. MITRE ATT&CK, un framework clave para entender el modus operandi de los actores hostiles

El marco MITRE ATLAS tiene su origen en MITRE ATT&CK. Este framework se ha consolidado como una herramienta crítica empleada por profesionales de la ciberseguridad en todo el mundo.

Desde su creación en el año 2014, MITRE ATT&CK ha sido clave para enfocar la ciberseguridad de las empresas desde el punto de vista de los actores maliciosos y no solo desde la perspectiva de las compañías.

A lo largo de esta década, se han incorporando nuevas variantes al dominio tecnológico original, centrado en las tácticas y técnicas que se pueden emplear para atacar redes corporativas. De tal forma que MITRE ATT&CK cuenta con tres grandes dominios tecnológicos:

  • Enterprise. Que sistematiza la forma de proceder de los ciberdelincuentes contra sistemas operativos como Windows, macOS o Linux o contra los entornos de trabajo Cloud que emplean miles de empresas en todo el mundo como Office o Google Workspace.
  • Móvil. Con tácticas y técnicas específicas empleadas para atacar dispositivos móviles, tanto Android como iOS.
  • ICS. De cara a glosar cuáles son las TTPs de los ataques contra sistemas de control industrial, una tecnología crítica en múltiples sectores.

La revolución que se está produciendo en el desarrollo de sistemas de IA y su creciente implementación en el tejido productivo han propiciado la creación de MITRE ATLAS. Este marco de trabajo unifica y ordena el conocimiento que se dispone, a nivel global, sobre los ciberataques contra sistemas de IA.

De hecho, ATLAS es un acrónimo de Adversarial Threat Landscape for Artificial-Intelligence Systems. Es decir, «panorama de amenazas adversas para los sistemas de inteligencia artificial». Y, al igual que MITRE ATT&CK, dispone de una matriz en la que se ponen en relación las tácticas que emplean los actores hostiles y las técnicas que deben utilizar para que las tácticas tengan éxito.

2. Tácticas específicas que se emplean en los ciberataques contra sistemas de IA

En lo que respecta a las tácticas de MITRE ATLAS, podemos comprobar que son, en esencia, prácticamente las mismas que las de su framework padre. Si bien, no se incluyen dos de las tácticas presentes en ATT&CK:

  • Movimiento lateral.
  • Comando y control.

Por contra, figuran dos tácticas específicas para atacar sistemas de IA, centradas en menoscabar los modelos de aprendizaje automático o Machine Learning sobre los que se sustentan:

  • Acceso al modelo de Machine Learning (ML).
  • Etapa de ataque de Machine Learning.

Esto implica que la matriz de MITRE ATLAS está conformada por 14 tácticas que van desde las etapas de preparación de un ataque hasta la consecución de los objetivos maliciosos y el impacto en el sistema de IA:

  1. Reconocimiento
  2. Desarrollo de recursos.
  3. Acceso inicial.
  4. Acceso al modelo de Machine Learning.
  5. Ejecución.
  6. Persistencia.
  7. Escalado de privilegios.
  8. Evasión de defensas.
  9. Acceso a credenciales.
  10. Descubrimiento.
  11. Recolección.
  12. Etapa de ataque de Machine Learning.
  13. Exfiltración.
  14. Impacto.

Detengámonos ahora, brevemente, en qué consisten las dos tácticas que incorpora MITRE ATLAS con respecto a ATT&CK.

2.1. Acceso al modelo de Machine Learning

Mediante esta táctica, los actores hostiles buscan lograr un nivel de acceso al modelo de Machine Learning del sistema que desean atacar. De tal forma que en un nivel máximo de acceso se logre obtener toda la información sobre cómo funciona el modelo y sus elementos. Si bien, como señala MITRE ATLAS, los atacantes pueden usar diversos niveles de acceso en el transcurso de las diferentes etapas de un ataque.

Para acceder a un modelo de Machine Learning, los actores hostiles pueden necesitar:

  • Entrar en el sistema donde se alberga el modelo. Por ejemplo, a través de una API.
  • Tener acceso al entorno físico en el que se lleva a cabo la recolección de los datos que nutren el modelo.
  • Acceder de manera indirecta, interactuando con un servicio que emplea dicho modelo en sus procesos.

¿Qué se busca al acceder a un modelo de Machine Learning?

  • Obtener información sobre el modelo.
  • Desarrollar ataques contra él.
  • Introducir datos en el modelo para manipular o menoscabar su funcionamiento.


2.2. Etapa de ataque de Machine Learning

Si la táctica anterior es critica en las primeras fases de un ataque, esta táctica es esencial en los últimos compases del mismo.

De hecho, los actores hostiles emplean todo el conocimiento que disponen sobre el modelo de aprendizaje automático y su capacidad de acceso al sistema de IA para personalizar el ataque y poder lograr sus objetivos.

Para ello se pueden emplear cuatro tipos de técnicas:

  • Obtención de modelos que sirvan de proxy del que se desea atacar. De tal forma que se pueda simular el acceso al modelo de manera offline. Para ello se pueden entrenar modelos, usar modelos pre-entrenados o replicar modelos de las API de inferencia del sistema objetivo.
  • Implementación de un backdoor en el modelo de ML para lograr persistir en el sistema y manipular su funcionamiento cuando se desee.
  • Verificación de la eficacia del ataque empleando una API de inferencia o mediante el acceso a una copia offline del modelo de ML. Gracias a esta técnica se puede comprobar que el ataque ha sido bien desarrollado y es posible realizarlo con éxito a posteriori.
  • Creación de datos adversos dentro del modelo para manipular su comportamiento y lograr que se produzcan determinados efectos.

 

3. MITRE ATLAS dibuja un mapa de técnicas para socavar los grandes modelos de lenguaje

Precisamente, si las tácticas son las vigas de MITRE ATLAS, las técnicas son sus columnas. De tal forma que junto a cada táctica se glosan las diversas técnicas que pueden emplear los actores hostiles para llevarlas a cabo con éxito.

MITRE ATLAS lista y define 56 técnicas, una cifra notablemente inferior a las 196 técnicas incluidas en la matriz Enterprise de MITRE ATT&CK.

Estas 56 técnicas nos permiten obtener una panorámica amplia y precisa sobre cómo se pueden diseñar y ejecutar ataques contra los sistemas de IA.

De hecho, aunque la mayoría de las tácticas de MITRE ATLAS sean comunes con el framework original, lo cierto es que las técnicas son específicas para la Inteligencia Artificial. Por ejemplo, en la táctica de descubrimiento podemos encontrarnos con cuatro técnicas:

  • Descubrir la ontología del modelo de Machine Learning que se desea atacar.
  • Descubrir la familia de modelos de Machine Learning del objetivo.
  • Identificar los artefactos de aprendizaje automático que existen en el sistema que se desea atacar.
  • Acceder al meta prompt o instrucciones iniciales de un gran modelo de lenguaje (LLM). De tal forma que mediante la ingeniería de prompts se pueda robar la propiedad intelectual de una compañía que desarrolla el sistema de IA.

Además, varias técnicas incluyen sub-técnicas para detallar con mayor precisión los procedimientos que pueden seguir los actores hostiles y los medios que emplean para lograr sus objetivos tácticos. Por ejemplo, tres de las cuatro técnicas de la etapa de ataque de Machine Learning que detallamos antes disponen de varias sub-técnicas.

4. ¿Cómo se pueden prevenir las técnicas de los actores hostiles según MITRE ATLAS?

Más allá de sistematizar y definir las tácticas y técnicas que pueden emplear los atacantes contra los sistemas de Inteligencia Artificial, MITRE ATLAS también incluye otros dos elementos de gran valor añadido en la prevención de los ataques contra los sistemas de IA y sus modelos:

  • Casos de estudio para comprender mejor cómo funcionan los ataques y cuál puede ser su impacto en un sistema de Inteligencia Artificial. MITRE ATLAS cuenta con múltiples casos de estudio que cubren un amplio abanico de características de los ataques:
    • Tipología de los ataques: envenenamiento de modelos, replicación de modelos, etc.
    • Actores que pueden llevarlos a cabo.
    • Particularidades de los sistemas de IA y sus modelos: ataques a sistemas de Machine Learning as a Service, modelos alojados en las instalaciones de una empresa o Cloud, etc.
    • Casos de uso de los sistemas de IA. Por ejemplo, sistemas empleados en ámbitos especialmente sensibles como el de la ciberseguridad, pero también en otros que no lo resultan tanto, como pueden ser los chatbots de atención al cliente.
  • Procedimientos que se pueden emplear para mitigar las técnicas maliciosas y evitar incidentes de seguridad. MITRE ATLAS incluye hasta 20 conceptos de seguridad o tipos de tecnologías de gran utilidad para enfrentarse a las técnicas de los actores hostiles. Estos procedimientos van desde limitar la información sobre un sistema que se hace púbica hasta llevar a cabo un control exhaustivo de quién puede acceder a los modelos de aprendizaje automático y a los datos con que se nutren durante la fase de producción. Además de otras recomendaciones clave como formar a los desarrolladores de modelos de Machine Learning en ciberseguridad para que implementen prácticas de codificación seguras o realizar escaneos de vulnerabilidades continuos para detectar y remediar debilidades antes de que sean explotadas.


5. MITRE ATLAS, una herramienta al servicio de Threat Hunters y Red Teams

Al igual que sucede con MITRE ATT&CK, este framework es una herramienta de enorme utilidad para los profesionales a cargo de dos servicios de ciberseguridad esenciales para mejorar la resiliencia de los sistemas de IA y proteger a las empresas que los desarrollan y/o los emplean en su día a día: Threat Hunting y Red Team.

5.1. Servicios de Threat Hunting

Los Threat Hunters investigan constantemente escenarios de compromiso que aún no ha sido detectado. De esta manera, pueden ser proactivos en la detección de amenazas. Además, emplean la telemetría que proporcionan las tecnologías EDR/XDR para detectar actividad maliciosa y obtener información de gran valor sobre las tácticas, técnicas y procedimientos de los actores hostiles que desean menoscabar sistemas de IA.

De ahí que MITRE ATLAS sea una guía de trabajo de gran utilidad y permita estandarizar a nivel mundial las TTPs específicas de los ciberataques contra sistemas de IA.

Los servicios de Threat Hunting son claves a la hora de:

  • Mejorar las capacidades de detección de amenazas.
  • Identificar las tácticas y técnicas maliciosas en las primeras etapas de los ataques.
  • Anticiparse a los actores maliciosos e impedir que logren sus objetivos.

5.2. Servicios de Red Team

El conocimiento generado por los servicios de Threat Hunting es esencial a la hora de diseñar y ejecutar un escenario de Red Team específico que permita evaluar cómo respondería una empresa que desarrolla IA o una compañía que emplea un sistema de Inteligencia Artificial ante un ataque.

MITRE ATLAS es de enorme ayuda a la hora de planificar el escenario pactando con la compañía el tipo de actor malicioso que se va a simular, el vector de intrusión y los objetivos.
Gracias a un servicio de Red Team es posible mejorar la resiliencia de una organización frente a los ataques contra sistemas de IA propios o de terceros, formar a los equipos defensivos para hacer frente a las técnicas maliciosas contra sistemas de IA y optimizar las capacidades de detección y respuesta.

Habida cuenta de que nos encontramos inmersos en la revolución de la Inteligencia Artificial y que la investigación en torno a esta tecnología está en pleno apogeo, es posible que el panorama de amenazas de los sistemas de IA sufra grandes cambios en los próximos años.

MITRE ATLAS ofrece a los expertos en ciberseguridad un marco de trabajo común para comprender las tácticas y técnicas hostiles, así como los procedimientos para mitigarlas. De ahí que a la luz de la experiencia de los profesionales el framework irá completándose para incorporar todas las TTPs que se vayan diseñando e implementando.

viernes, 16 de agosto de 2024

Reglamento de IA: Requisitos de ciberseguridad de los sistemas de IA de alto riesgo

El reglamento de Inteligencia Artificial establece cuáles son los requisitos de ciberseguridad de los sistemas de IA de alto riesgo que se deben cumplir en la Unión Europea

Pocas normas han generado más expectación en los últimos años que el reglamento de Inteligencia Artificial aprobado por la Unión Europea este año. Una normativa pionera a nivel mundial en la regulación de los sistemas de IA de alto riesgo que busca:

  • Armonizar el ordenamiento jurídico de toda la UE.
  • Proteger a los ciudadanos frente a prácticas indebidas en el desarrollo y uso de esta tecnología disruptiva.
  • Fomentar la investigación y la innovación en un ámbito crítico que ya está influyendo en el tejido productivo y la sociedad.

Uno de los elementos centrales del reglamento de Inteligencia Artificial gira en torno al establecimiento de una serie de requisitos de ciberseguridad de los sistemas de IA de alto riesgo. La obligación de cumplir con estos requisitos recae sobre las empresas que desarrollen sistemas de IA, pero también sobre aquellas que los comercialicen o los implementen. Asimismo, para garantizar que la norma se cumple, se han establecido cuantiosas multas económicas.

El reglamento de Inteligencia Artificial entró en vigor este 2 de agosto. Sin embargo, sus obligaciones no serán aplicables de manera general hasta dentro de dos años, el 2 de agosto de 2026. E, incluso, algunas obligaciones no deberán cumplirse hasta 2027. Por lo que las empresas que desarrollan, comercializan o usan sistemas de IA tienen tiempo para adaptarse a este marco normativo.

A continuación, vamos a desgranar los requisitos de ciberseguridad de los sistemas de IA de alto riesgo que se deben tener en cuenta a la hora de desarrollar esta clase de tecnología y a lo largo de todo su ciclo de vida.

1. ¿Qué es un sistema de IA de alto riesgo?

Antes de entrar de lleno en los requisitos de ciberseguridad de los sistemas de IA de alto riesgo, debemos tener claro qué aplicaciones tienen tal consideración según el marco normativo comunitario. El reglamento fija dos criterios para dilucidar qué sistemas son de alto riesgo.

1.1. Criterios europeos para establecer qué sistemas son de alto riesgo

  1. Los sistemas empleados como componentes de seguridad de productos como máquinas, juguetes, medios de transporte (coches, aviones, trenes, barcos…), ascensores, equipos radioeléctricos, productos sanitarios…
  2. Los sistemas que puedan afectar negativamente a la salud, la seguridad y los derechos fundamentales de los ciudadanos o influir sustancialmente en su toma de decisiones y que operen en estos ámbitos:
    • Biometría.
    • Infraestructuras críticas (agua, luz, gas, infraestructuras digitales esenciales…)
    • Educación y formación profesional. Como aplicaciones de Inteligencia Artificial usadas en la evaluación de los resultados de aprendizaje o la detección de comportamientos indebidos durante la realización de pruebas.
    • Trabajo y gestión de los profesionales. Por ejemplo, sistemas de IA de recursos humanos empleados para contratar a trabajadores.
    • El acceso y disfrute a servicios públicos y privados esenciales: prestaciones sanitarias, créditos financieros, seguros de salud y vida, servicios sanitarios o servicios de emergencia (policía, bomberos…).
    • Cumplimiento del Derecho. Por ejemplo, sistemas de IA para evaluar pruebas durante una investigación policial o en el ámbito judicial o para realizar perfiles de personas o rasgos de la personalidad.
    • Migración y control de las fronteras. Como sistemas que sirvan para evaluar el riesgo para la seguridad o la salud de una persona que desee entrar en un estado de la UE, así como aplicaciones para estudiar solicitudes de asilo o peticiones de permisos de residencia.
    • Justicia y procesos democráticos. Por ejemplo, aplicaciones para ayudar a los tribunales y juzgados a interpretar los hechos y la ley. Así como herramientas para influir en el voto de los ciudadanos.

Además, en el caso de que el sistema se emplee para hacer perfiles de personas, siempre será considerado de alto riesgo.

2. Precisión, solidez y ciberseguridad. Tres pilares esenciales de la Inteligencia Artificial

El reglamento europeo establece un abanico de requisitos que deben cumplir los sistemas de IA de alto riesgo antes de salir al mercado como disponer de prácticas de gobernanza de los datos que se emplean para el entrenamiento de los modelos o el establecimiento de un sistema de gestión de riesgos.

Dentro de este catálogo de requisitos se incluye la necesidad de garantizar la precisión, solidez y ciberseguridad de la Inteligencia Artificial de alto riesgo.

2.1. Nivel adecuado de precisión a lo largo de todo el ciclo de vida del sistema

Todos los sistemas de IA de alto riesgo que se comercialicen en la UE deben haber sido diseñados y desarrollados de manera segura para garantizar un nivel de precisión, solidez y ciberseguridad suficiente. Además, deberán cumplir dicho nivel durante todo su ciclo de vida.

El reglamento de IA encomienda a la Comisión Europea establecer la manera de medir los niveles de precisión y solidez de los sistemas. Para ello, deberá contar con la colaboración de las organizaciones que desarrollan esta clase de tecnología y otras autoridades. Fruto de este trabajo se deberán fijar parámetros de referencia y metodologías de medición que permitan evaluar de manera objetiva los niveles de precisión y solidez de cada sistema de IA de alto riesgo que opere en la UE.

Asimismo, esta norma pionera establece que en las instrucciones de uso de un sistema de IA de alto riesgo debe figurar su nivel de precisión y los parámetros que se deben emplear para medirlo.

2.2. Solidez del sistema y prevención de fallos

A la hora de desarrollar y comercializar sistemas de IA de alto riesgo se debe tener en cuenta, también, que han de ser sólidos a lo largo de todo su ciclo de vida. De cara a evitar errores, fallos e incoherencias que surjan:

  • En los propios sistemas de IA.
  • En el entorno en que se emplean, sobre todo, como fruto de su interacción con los seres humanos o con otros sistemas.

Para prevenir las incidencias y lograr que los sistemas sean sólidos, el reglamento indica que se deben implementar:

  • Soluciones de redundancia técnica, como la realización de copias de seguridad continuas.
  • Planes de prevención contra fallos del sistema de IA.

Asimismo, la normativa tiene en cuenta una de las características claves de muchos sistemas de Inteligencia Artificial: continúan aprendiendo a lo largo de todo su ciclo de vida. Esto implica que sea necesario:

  • Desarrollarlos para reducir al máximo el riesgo de que los resultados de salida de los sistemas de IA de alto riesgo estén sesgados y que influyan en la información de entrada al propio sistema, provocando bucles de retroalimentación.
  • Disponer de medidas para reducir los riesgos de que se produzcan bucles de retroalimentación.

2.3. Resistencia a los ciberataques

Dentro de los requisitos de ciberseguridad de los sistemas de IA de alto riesgo, el reglamento europeo presta especial atención a los ciberataques que se pueden lanzar contra esta tecnología clave para el futuro de las empresas y la sociedad. Así, este nuevo marco normativo establece que los sistemas deben ser capaces de resistir a los ataques que busquen explotar sus vulnerabilidades para:

  • Alterar la forma de emplearlos.
  • Manipular los resultados de salida que generan.
  • Menoscabar su funcionamiento ordinario y de acuerdo a sus fines.

Por ello, se deben implementar soluciones técnicas y disponer de servicios de ciberseguridad que permitan prevenir los incidentes, detectarlos de manera temprana, responder ante ellos y recuperar la normalidad.

Además, el reglamento hace hincapié en los diferentes tipos de ciberataques específicos que se pueden poner en marcha contra los sistemas de IA de alto riesgo y que, por ende, se deben tener en cuenta a la hora de diseñar la estrategia de ciberseguridad:

  • Envenenamiento de datos.
  • Envenenamiento de modelos.
  • Evasión de modelos y ejemplos adversarios.
  • Ataques a la confidencialidad de los datos.
  • Ataques que busquen explotar defectos presentes en los modelos.


3. ¿Quién debe cumplir los requisitos de ciberseguridad de los sistemas de IA de alto riesgo?

El reglamento de IA establece que son los proveedores de sistemas de IA los que tienen que garantizar que una aplicación cumple con los requisitos de ciberseguridad de los sistemas de IA de alto riesgo.

Además, los proveedores también son responsables de:

  • Que los sistemas que desarrollen se sometan a una evaluación de conformidad. Esta evaluación sirve para garantizar que los sistemas cumplen con todos los requisitos del reglamento antes de que se empiecen a comercializar o entren en funcionamiento en la UE.
  • Redactar la declaración UE de conformidad en la que se afirma que los requisitos de los sistemas de IA, incluidos los relacionados con la ciberseguridad, se cumplen. Este documento incluye las características fundamentales del sistema y, a través de él, el proveedor garantiza que se han cumplido todos los requisitos de los sistemas de IA de alto riesgo, incluidos los relacionados directamente con la ciberseguridad.

Asimismo, los importadores de sistemas de IA desarrollados por otras compañías fuera de la UE están obligados a:

  • Comprobar que el sistema cumple los requisitos del reglamento.
  • Asegurarse de que se ha realizado la evaluación de conformidad del sistema.
  • Incorporar al sistema antes de su comercialización una copia de la declaración UE de conformidad que fija el reglamento.

En la misma línea, los distribuidores tendrán que asegurarse de que el sistema va acompañado de la declaración UE de conformidad.

Finalmente, los responsables del despliegue de sistemas de IA de alto riesgo, es decir, las compañías que implementan esta tecnología en sus organizaciones, deben emplearlos de acuerdo a las instrucciones de uso, encomendar su vigilancia a personas capacitadas y constatar que funcionen de acuerdo a sus fines y sin generar ningún riesgo.

Todos los actores están obligados a informar sobre incidentes graves que afecten a los sistemas de IA a las autoridades.

4. Multas millonarias por incumplir los requisitos de ciberseguridad de los sistemas de IA de alto riesgo

¿Qué sucede si no se cumplen los requisitos de ciberseguridad de los sistemas de IA de alto riesgo?

El reglamento determina que deben ser los estados quiénes aprueben sus respectivos regímenes de sanciones. Si bien, se indican los topes de las multas administrativas que se pueden imponer a proveedores, importadores, distribuidores y responsables del despliegue de sistemas de IA de alto riesgo:

  • 15 millones de euros o el 3% del volumen de negocios mundial de una compañía que incumpla sus obligaciones en función de su condición de proveedor, importador, distribuidor o responsable del despliegue de una IA. El límite es la cifra de mayo tamaño. De tal forma que si un desarrollador comercializa un sistema que no cumple con los requisitos de ciberseguridad de los sistemas de IA de alto riesgo puede ser sancionado con este importe.
  • 7,5 millones de euros o el 1% del volumen de negocios mundial, dependiendo de qué cifra es mayor, por presentar información inexacta o incompleta a las autoridades.
  • Los límites de sanciones máximas a las pymes y startups serán iguales, pero en su caso, el tope máximo lo marcará la cifra de menor tamaño al comparar el importe fijo y el porcentaje del volumen de negocios.

5. Servicios de ciberseguridad para proteger una tecnología puntera

El reglamento europeo de Inteligencia Artificial impone una serie de requisitos de ciberseguridad para los sistemas de IA de alto riesgo específicos. Dichos requisitos se suman a las obligaciones en materia de seguridad y resiliencia incluidas en otras normas clave de la UE como la directiva NIS2 o el reglamento DORA.

De esta manera, la Unión Europea pone el foco en lo importante que resulta garantizar que los sistemas de IA de alto riesgo presenten niveles de precisión y solidez solventes, a la vez que se garantiza su resistencia frente a los ciberataques.

Por ello, todas las compañías que desarrollan sistemas de IA deben disponer de servicios de ciberseguridad avanzados y adaptados a las características de esta tecnología que les ayuden a:

  • Evaluar que los sistemas son conformes al reglamento europeo en materia de ciberseguridad.
  • Detectar vulnerabilidades y remediarlas desde la fase de diseño y a lo largo de todo su ciclo de vida.
  • Mejorar las capacidades de detección y respuesta ante ciberataques.
  • Salvaguardar los modelos y los datos que emplean.
  • Garantizar el correcto funcionamiento de los sistemas de IA de alto riesgo.
  • Elaborar instrucciones de uso para las compañías que empleen los sistemas de IA en las que se tenga en cuenta la seguridad para evitar que se usen de manera insegura.
  • Securizar la cadena de suministro de la IA.
  • Evitar multas millonarias y daños reputacionales incuantificables.