MS_Purview_M365E5-SecOps_e02v01_Art11-MS_CSU_Security_MCSA
MS_Purview_M365E5-SecOps_e02v01_Art11-MS_CSU_Security_MCSA
Este documento describe un marco de gobernanza para desplegar inteligencia artificial generativa en Microsoft 365 con Copilot. Pone el foco en el nuevo perímetro del dato. Explica cómo funcionan los permisos heredados, el rol de Microsoft Purview, las etiquetas de sensibilidad y los controles de prevención de fuga de datos. Relaciona estas tecnologías con la gestión del riesgo, las obligaciones regulatorias y la arquitectura Zero Trust. Además propone un roadmap técnico de madurez que ordena las dependencias y convierte el proyecto de Copilot en un ejercicio continuo de gestión de riesgo. Está dirigido a equipos de seguridad, cumplimiento e IT.
Copilot respeta los permisos existentes, pero amplifica sus efectos. No crea acceso nuevo, sino que convierte en visible todo lo que el usuario ya podía abrir en correo, sitios y archivos. La deuda histórica en la configuración de permisos hace que muchas personas vean contenido que nunca deberían necesitar. Antes, encontrar un documento exigía saber que existía. Ahora una sola pregunta puede combinar muchos orígenes y exponer información muy sensible rápidamente, para negocio y cumplimiento.
DSPM para IA, dentro de Microsoft Purview, aporta visibilidad específica sobre el riesgo de datos en Copilot y otras soluciones internas de inteligencia artificial. Identifica qué tipos de información sensible aparecen en respuestas, quién las genera y desde qué sitios se alimentan. También detecta prompts que incluyen datos que no deberían introducirse. Funciona primero en modo auditoría, sin bloquear, y usa esa etapa para que seguridad entienda el perfil real antes de imponer controles adicionales.
El riesgo de Shadow AI aparece cuando empleados usan servicios públicos de inteligencia artificial desde el navegador para tratar datos corporativos. Shadow AI DLP extiende la prevención de pérdida de datos en dispositivos y navegadores. También permite bloquear o registrar cargas de archivos etiquetados, pegado de textos sensibles en chats externos y descargas riesgosas desde esas páginas. La lista de servicios controlados se actualiza con inteligencia de amenazas y requiere capacidades avanzadas de Purview Suite.
Las etiquetas de sensibilidad son la barrera técnica más directa para limitar la exposición de información delicada en Copilot. Cuando aplican cifrado y una política restringida, el modelo no puede abrir ni citar esos documentos. Por eso el etiquetado automático de Purview, basado en clasificadores entrenables, resulta esencial. Cada archivo sensible que recibe una etiqueta adecuada reduce la superficie de ataque. El porcentaje de cobertura lograda define en gran medida el riesgo operativo residual final.
El documento propone un roadmap de cinco etapas: inventario y clasificación, corrección de permisos abiertos, línea base de prevención de fuga. Observación con DSPM en auditoría y despliegue gradual monitoreado. Esta secuencia conecta Copilot con evaluaciones de impacto de privacidad y con obligaciones como las del Reglamento europeo u otras leyes regionales. Además reparte responsabilidades entre IT, adopción, seguridad y cumplimiento. Recalca que las capacidades evolucionan y que no existen atajos para una gobernanza sostenible.
Gobernanza para IA y Copilot: el nuevo perímetro del dato
Conceptos clave
| Concepto | Explicación |
|---|---|
| El mecanismo de exposición: permisos heredados por Copilot | Copilot para M365 respeta los permisos del usuario que lo invoca: solo accede y sintetiza contenido al que ese usuario ya tiene permisos en Exchange, SharePoint, OneDrive y Teams, sin acceso privilegiado ni escalamiento de permisos. El riesgo proviene de años de deuda en la configuración de permisos, que hace que muchos usuarios tengan acceso efectivo a mucho más contenido del que usan en la práctica. Antes, encontrar un documento exigía saber que existía o buscarlo de forma explícita; Copilot elimina esa fricción. Una consulta en lenguaje natural puede sintetizar información de decenas de documentos dispersos a los que el usuario tenía acceso teórico pero que nunca habría localizado manualmente. Copilot no rompe el control de acceso, pero convierte todo el acceso posible en acceso fácilmente explotable y de alto impacto. |
| DSPM for AI: visibilidad del riesgo de datos en IA | Data Security Posture Management for AI (DSPM for AI) en Microsoft Purview ofrece visibilidad sobre el uso de datos sensibles en interacciones con Copilot y otras herramientas de IA corporativas. Identifica qué tipos de información sensible aparecen en las respuestas de Copilot y qué clasificadores de tipos de información (SIT) se activan, quiénes son los usuarios que generan más respuestas con datos altamente confidenciales, qué prompts de usuario incluyen información sensible que no debería introducirse en estas interfaces y qué sitios de SharePoint aportan el mayor volumen de contenido sensible citado. Funciona inicialmente en modo de auditoría, sin bloquear el uso, para que el equipo de seguridad entienda el perfil de riesgo real antes de aplicar restricciones. La funcionalidad básica de auditoría está disponible en el portal de Purview sin requerir licenciamiento adicional sobre Purview Suite. |
| Shadow AI DLP: control de la frontera de IA no corporativa | El riesgo de Shadow AI complementa el de Copilot. Mientras Copilot amplifica la exposición de datos internos dentro del entorno corporativo, las herramientas de IA generativa no corporativas (ChatGPT, Gemini, Claude.ai personal, Mistral, Perplexity y servicios similares accedidos desde el navegador) pueden usarse para exfiltrar datos sensibles hacia servicios externos. Shadow AI DLP extiende Browser DLP y Endpoint DLP de Purview para este escenario: detecta y puede bloquear la carga de archivos etiquetados con sensitivity labels de alta confidencialidad a sitios de IA generativa, el pegado de texto procedente de documentos protegidos en campos de chat de estas herramientas y la descarga a dispositivos de respuestas de IA que contengan información que active tipos de información sensibles. La lista de sitios de IA generativa controlados se actualiza de forma continua mediante la inteligencia de amenazas de Microsoft Defender for Cloud Apps. Esta capacidad requiere tener activos Endpoint DLP y Browser DLP, ambos incluidos exclusivamente en Purview Suite. |
| Sensitivity Labels como barrera técnica en el pipeline de Copilot | Las sensitivity labels son el mecanismo técnico más directo para limitar la exposición de datos sensibles en Copilot. Copilot respeta el cifrado asociado a las etiquetas: si un documento etiquetado como Altamente Confidencial está cifrado y la política de acceso no incluye al usuario que realiza la consulta, Copilot no puede abrirlo ni citarlo, igual que el propio usuario no puede abrirlo. Por eso, el programa de etiquetado automático de Purview Suite, basado en clasificadores entrenables, es el principal control preventivo para reducir la superficie de exposición. Cada documento que recibe una etiqueta de alta confidencialidad con cifrado aplicado queda fuera del alcance de Copilot para usuarios sin permisos explícitos. El nivel de madurez de Information Protection se traduce directamente en el nivel de riesgo del despliegue de Copilot: una organización con un 80 % de cobertura de etiquetado automático sobre su contenido sensible tiene un riesgo sustancialmente menor que otra que solo etiqueta manualmente un 20 %. |
| Roadmap de madurez de datos como prerequisito de Copilot | La preparación para desplegar Copilot a escala debe seguir una secuencia de cinco etapas técnicas con dependencias claras: Etapa 1: Inventario y clasificación. Activar el escaneo del Data Map y el auto-labeling de Information Protection para conocer el porcentaje de contenido clasificado y el perfil de sensibilidad del patrimonio documental. Etapa 2: Remediación de permisos. Usar los insights del Data Map y de Information Protection para identificar y corregir el sobre-acceso, en especial contenido Confidencial o Altamente Confidencial accesible por Toda la organización o por grupos demasiado amplios. Etapa 3: Línea de base de DLP. Implementar políticas de DLP sobre Exchange, SharePoint y OneDrive antes de activar Copilot para disponer de una línea base de los flujos de datos sensibles. Etapa 4: DSPM for AI en auditoría. Activar DSPM for AI en modo de auditoría durante 30 a 60 días antes del despliegue masivo de Copilot para entender el perfil de riesgo de las primeras interacciones. Etapa 5: Despliegue con monitoreo activo. Desplegar Copilot en grupos de usuarios controlados con Audit Premium y DSPM for AI activos, y escalar gradualmente según se verifique que el perfil de riesgo resultante es aceptable. Esta secuencia convierte el despliegue de Copilot en un proceso de gestión de riesgo, no solo en un proyecto de productividad. |
Notas de soporte
Implicaciones regulatorias y contractuales
La relación entre la madurez de implementación de Purview y el riesgo de Copilot tiene implicaciones contractuales y regulatorias. En jurisdicciones con obligaciones de protección de datos activas (como GDPR, la Ley 25.326 en Argentina o la LGPD en Brasil), el procesamiento de datos personales mediante herramientas de IA generativa puede requerir una evaluación de impacto de privacidad adicional (DPIA o EIPD) si el nuevo alcance de procesamiento habilitado por Copilot es materialmente diferente del propósito original para el que se recopilaron los datos.
La posición oficial de Microsoft es que Copilot para M365 procesa los datos dentro del tenant del cliente y no los utiliza para entrenar los modelos de Microsoft. No obstante, cada organización debe verificar, contextualizar y documentar esta postura en función de sus propias bases legales de tratamiento, políticas de privacidad y obligaciones de transparencia y responsabilidad.
Visibilidad y responsabilidades operativas
Es fundamental distinguir DSPM for AI de las capacidades de seguridad integradas en Copilot, como Microsoft 365 Copilot usage reports o el Copilot Dashboard en Viva Insights. Las herramientas nativas de Copilot ofrecen métricas de uso y productividad; DSPM for AI, en cambio, ofrece visibilidad sobre el perfil de riesgo de datos asociado a ese uso.
Son capacidades complementarias con objetivos distintos que suelen corresponder a equipos diferentes: IT y adopción orientados a habilitar y medir el uso, y seguridad y cumplimiento orientados a gestionar el riesgo y la conformidad regulatoria.
Evolución de capacidades
La funcionalidad de DSPM for AI y de Shadow AI DLP evoluciona en ciclos de actualización acelerados a lo largo de 2025 y 2026. La referencia técnica actualizada se mantiene en la documentación oficial de Microsoft Purview para capacidades de IA, que se actualiza con cada ciclo de lanzamiento del producto.
La descripción incluida aquí refleja el estado de la plataforma a comienzos de 2026 y debe revisarse periódicamente contra la documentación oficial para alinear la arquitectura de seguridad y cumplimiento con las capacidades disponibles.
Dependencias con otros controles de protección de datos
Los controles de Data Map, Information Protection, DLP y la arquitectura Zero Trust son prerequisitos concretos y secuenciados para reducir el riesgo de datos en despliegues de IA generativa corporativa. El nivel de madurez alcanzado en cada uno de estos dominios determina directamente el perfil de riesgo del despliegue de Copilot: no existe un atajo que permita saltarse la gobernanza del dato para acelerar la obtención de beneficios de productividad con IA.