Llevaba meses esperando que Microsoft sacara DLP de Purview
específicamente para Copilot. En Ignite 2025 anunciaron la GA de la versión que
actúa sobre archivos y correos con etiquetas de sensibilidad. En diciembre 2025
entró en preview la versión que actúa sobre prompts. La GA de prompts está
prevista para finales de marzo de 2026 — y a la fecha en que escribo, ya está
accesible para la mayoría de tenants empresariales.
Voy a contar para qué sirve esto en los términos en que se lo expliqué a
mi gerente, que no es técnico pero firma los presupuestos.
Una cosa es proteger los archivos en reposo. Si tienes un PDF con
contratos confidenciales, le pones un sensitivity label “Confidencial - Externo
Restringido”, y Copilot ya no lo procesa para usuarios fuera del scope
autorizado. Esa parte estaba.
Otra cosa, y aquí es donde estábamos cojos, es proteger lo que el usuario
teclea en el prompt. Imagínate que el usuario está pidiendo a Copilot que le
ayude a redactar un correo y, sin pensar, copia y pega un número de tarjeta de
crédito de un cliente. O un número de seguridad social. O un fragmento entero
de un contrato bajo NDA. Eso no es un archivo etiquetado. Es texto plano que el
usuario metió a la fuerza. Antes de la nueva DLP, ese contenido se procesaba
sin más.
Ahora, Purview escanea el prompt en tiempo real buscando Sensitive
Information Types (SITs). Hay built-in para datos como SSN, tarjetas, IBANs. Y
puedes definir custom — por ejemplo, “código de proyecto interno
X-confidential” o el nombre clave de tu producto que no se debe filtrar. Si lo
detecta, bloquea la respuesta. Copilot no responde. El usuario ve un mensaje de
policy.
Qué tan bien funciona
Razonablemente. He hecho pruebas con tres SITs custom y dos built-in.
Falsos positivos: pocos pero existen, sobre todo cuando los SITs custom tienen
patrones genéricos. Falsos negativos: encontré un par cuando el usuario partía
el dato sensible en dos prompts seguidos. La DLP no correlaciona conversación;
mira prompt por prompt. Eso es un gap real.
La latencia agregada es mínima. En mis pruebas, menos de 200ms. No la
sienten los usuarios.
Mi orden recomendado
Primero, defines el corpus de SITs que tienen sentido para tu negocio. No
metas todo lo que se te ocurra — cada SIT activo es coste de inferencia y
potencial fricción. Yo arranqué con seis: tarjetas, SSN/CURP local, IBAN, dos
nombres de proyecto críticos, y un patrón regex para códigos internos.
Suficiente para empezar.
Segundo, lo pones primero en modo audit, no block. Una semana en audit te
dice si tu corpus es razonable. Si en una semana se dispararían 5,000 bloqueos
al día, algo está mal.
Tercero, comunicas a los usuarios antes de cambiar a block. Un correo
simple. “A partir del lunes, si pegas datos sensibles en Copilot, no
responderá. Aquí los tipos de datos. Si tienes que trabajar con esto, usa este
canal alternativo”. Sin esa comunicación, los tickets te entierran.
Cuarto, mides. ¿Cuántos prompts bloqueados por semana? ¿De qué usuarios y
áreas? ¿Hay patrones que sugieran necesidad de capacitación? La DLP es solo el
dique. La cultura es el río.
Lo que me sigue molestando es que la correlación cross-prompt no existe
todavía. Si el usuario es astuto, puede partir un dato sensible y meterlo en
pedazos. La DLP de prompts no lo va a pillar. Para eso, necesitas combinar con
Insider Risk en Purview. Microsoft sabe que es un gap y dicen que están
trabajando.
Para mí, esta es la pieza del 2026 que más rápido cambia el riesgo real
de Copilot. Si solo puedes hacer una cosa este trimestre, hazla esta.
No hay comentarios.:
Publicar un comentario