Tenía claro hace un año que Defender for Cloud iba a evolucionar a cubrir
cargas de IA. Lo que no esperaba era lo bien que iba a integrarse el AI-SPM (AI
Security Posture Management) cuando llegara.
Antes de AI-SPM, gobernar la postura de IA en una organización mediana
era un trabajo de patchwork. Tenía que sumar señales de Azure OpenAI (qué
deployments, con qué configs, con qué key management), Copilot Studio (qué
agentes, con qué connectors), Foundry (qué modelos custom, con qué
evaluaciones), agentes locales (qué corre, con qué permisos) y frameworks
custom (lo que tu equipo de dev haya montado). Cada uno con su consola, su
lógica, su nomenclatura. Cinco fuentes, cinco hojas de Excel, una visión turbia.
AI-SPM lo unifica. Un dashboard. Un secure score. Una vista por workload
de IA con severidades, recomendaciones, owners.
Lo que más me ayudó al activarlo
La visualización de dependencias. AI-SPM dibuja qué workloads de IA
dependen de qué identidades, qué datos, qué APIs externas. Cuando vi por
primera vez el grafo, encontré dos workloads que dependían de una API externa
que el equipo había puesto sin pasar por el proceso de aprobación de
proveedores. Conversación incómoda con el dev, pero corregido en la semana.
La detección de configuraciones débiles. Modelos sin rate limiting,
deployments con keys que llevaban meses sin rotar, conectores con permisos
sobredimensionados. El secure score no es solo número — es una lista accionable
de cosas que arreglar.
La integración con incidents en Defender XDR. Cuando un ataque toca la
superficie de un workload de IA, ya no es solo “alerta del modelo” en una
consola y “alerta de identidad” en otra. Es un incidente único correlacionado.
Lo que me sorprendió en mal
El cobertura todavía es desigual entre workloads. Azure OpenAI lo cubre
bien. Copilot Studio aceptable. Frameworks custom — depende mucho de cómo los
hayas instrumentado. Si no instrumentas, AI-SPM no ve. Esto es razonable
técnicamente, pero genera ilusión de cobertura cuando el dashboard se ve
“verde”. Verde en lo que ve. No verde en lo que no ve.
Los benchmarks de “secure score” son a veces optimistas. Un workload con
score 85% puede tener gaps que importan en tu contexto pero que no se ven en el
score. El score es punto de partida, no la métrica final.
La latencia de los signals: algunos hits tardan minutos en aparecer en el
dashboard. Para detección casi tiempo-real, todavía hay que ir a Defender XDR
directo.
Mi rutina con AI-SPM
Semanalmente: review del secure score y de los hallazgos abiertos.
Asignación a dueños. Tracking de cierre.
Al onboarding de un workload de IA nuevo: chequeo previo de cobertura. Si
no aparece en AI-SPM, lo instrumento antes de promover. La instrumentación a
posteriori siempre se queda a medias.
Trimestralmente: presentación al board. AI-SPM da las gráficas que
necesito. Score por workload, evolución temporal, top 5 hallazgos críticos.
Antes preparar esto era media semana de trabajo. Ahora son veinte minutos.
Para quién es
Si tienes 10 o más workloads de IA distribuidos, AI-SPM cambia tu vida.
Si tienes 2 o 3, probablemente con dashboards de Azure OpenAI normales te
bastaba. La inversión en gobernanza unificada se justifica con escala.
¿Sustituye al programa de seguridad? No. Es la consola, no el programa.
Las decisiones, los procesos, las personas — eso no lo da AI-SPM. Lo que da es
la vista para tomar mejores decisiones.
Mi métrica favorita después de seis meses con AI-SPM activo: tiempo medio
entre el deploy de un workload nuevo y la primera revisión de seguridad sobre
él. Bajó de 23 días a 4. Eso es lo que me dice que la herramienta vale.
No hay comentarios.:
Publicar un comentario