Defender XDR estrenó en abril identity risk scoring extendido a
identidades de agentes. Antes el risk scoring se aplicaba solo a humanos. Lo de
los agentes era un patch. Ahora es ciudadano de primera clase del modelo.
Voy a explicar qué cambia.
El risk scoring funciona como en humanos. Defender mira señales:
ubicación geográfica anormal, accesos fuera de horario, acciones desviadas del
patrón histórico, conexiones a destinos sospechosos. Combina señales en un
score. Te alerta cuando un agente se comporta raro.
Diferencias con humanos
Los patrones son distintos. Un humano tiene ritmos circadianos. Un agente
puede estar activo 24/7. La ausencia de ritmo circadiano no es señal sospechosa
para un agente. Defender lo aprende.
La velocidad es distinta. Un agente puede legítimamente hacer 1000
acciones por minuto. La señal “muchas acciones rápidas” no aplica igual. Lo que
sí aplica: cambio brusco respecto a la baseline del propio agente.
El contexto es distinto. Un humano tiene “manager”, “departamento”,
“rol”. Un agente tiene “sponsor”, “scope autorizado”, “tipo de tarea”. El risk
scoring de Defender ahora incorpora estos atributos en su modelo.
Lo que se ve en mi tenant
Detectó tres anomalías en el primer mes. Una era benigna — un agente
cambió de comportamiento porque cambió su tarea, no estaba mal. Dos eran
problemáticas — un agente que empezó a tocar datos fuera de su scope (mala
configuración después de un update), y otro que empezó a fallar en patrones que
sugerían que su modelo subyacente había sido cambiado sin aviso.
Ese segundo caso me marcó. Era un agente custom de Copilot Studio.
Alguien del equipo de IA cambió el modelo subyacente sin avisar a seguridad.
Defender lo detectó por el cambio en el patrón de respuestas. Me dio
visibilidad sobre algo que estaba mal gobernado. Pude presentarle al equipo de
IA evidencia técnica de por qué el cambio sin aviso no es OK.
Lo que ajusté en operación
Subí los thresholds para alertas críticas. Por defecto, Defender es
ruidoso para agentes nuevos hasta que aprende la baseline. Las primeras dos
semanas tuve más alertas que las que mi equipo podía triagear. Microsoft
documenta esto, hay que esperar.
Conecté las alertas con tickets automáticos al sponsor del agente. Si un
agente de María entra en risk alto, María recibe ticket. La accountability es
del sponsor.
Empecé a usar el risk score en políticas de Conditional Access. “Si un
agente está en risk alto, requiere re-autenticación de su sponsor humano antes
de continuar acciones críticas”. Esto añade fricción a un agente comprometido,
sin parar a los buenos.
Lo que me gustaría que mejoraran
Más explicabilidad en las alertas. A veces Defender dice “risk alto” sin
explicar qué señales pesaron. Para investigación, necesito saber el por qué.
Integración con Entra Agent ID más profunda. Hoy hay puente, pero algunos
atributos del agente no se reflejan en el modelo de risk. Espero que cierren
ese gap.
Mi conclusión: risk scoring para identidades de agentes era el control
que faltaba. Lo tienes activo, vas mucho más tranquilo. Si tienes agentes en
producción y no estás monitoreando con risk scoring, es la pieza que más rápido
te baja el riesgo de identidad de agente.
No hay comentarios.:
Publicar un comentario