CIBERSEGURIDADDATA & AI9 octubre, 20233 min de lectura

Caso de uso: Cómo maximizar la IA generativa para mejorar la ciberseguridad

Nuestros expertos, Álex Imbernón, Responsable de Ciberseguridad, y David Castellà, Responsable de Data & IA, han destacado en el IA & Big Data Congress 2023 con una demostración en directo sobre el potencial de la IA generativa aplicada a la ciberseguridad.


Cómo maximizar la IA generativa para mejorar la ciberseguridad

La IA generativa es una de las tecnologías más disruptivas y prometedoras de la actualidad. Ya se ha demostrado su poder transformador con los modelos GPT aplicándola en diversos casos de uso. En ciberseguridad, la inteligencia artificial generativa puede ayudar a prevenir, detectar y responder con mayor eficiencia ante las ciberamenazas que ponen en riesgo la seguridad de las empresas. Pero, ¿cómo podemos aprovechar todo su potencial?

En este artículo compartimos un caso de uso real utilizando la IA generativa como una herramienta de ayuda maximizando su potencial para mejorar la ciberseguridad.

Caso de uso: Cómo la IA generativa puede detectar un falso positivo

Supongamos que un usuario ha sido añadido a un grupo con roles de administración sin autorización previa. Para la seguridad del negocio, esto podría indicar un intento de escalada de privilegios, una técnica utilizada por los ciberatacantes para acceder a los recursos e información sensible de la empresa.

Gracias a la integración de Azure Open AI con Microsoft Sentinel, podemos identificar este tipo de incidentes mediante la recopilación y el análisis de los eventos de auditoría que se generan en los sistemas de identidad, como Azure Active Directory o Microsoft 365.

Así, Microsoft Sentinel, en función de los datos conectados, es capaz de avisarnos de lo que ha pasado, indicando quién es el usuario, a qué grupo lo han añadido y cuándo ha ocurrido, así como el nivel de riesgo y los posibles daños.

Cómo la IA generativa ayuda a investigar y responder más rápido ante incidentes

Aprovechando el potencial de Azure OpenAI como herramienta de ayuda al servicio de los analistas de seguridad, la IA genera las siguientes acciones recomendadas, para este caso de uso, que permiten investigar y responder más rápido al incidente:

  1. Tareas de investigación: Investigar qué ha hecho el usuario, revisando los registros de auditoría que recogen sus actividades y acciones.
  2. Tareas de análisis: Analizar los datos relacionados con el incidente, utilizando una consulta que Azure OpenAI te proporciona, la cual combina información específica del incidente con información general sobre seguridad
  3. Tareas de remediación automática: Bloquear el usuario, quitarlo del grupo administrador o pedirle una doble verificación.
  4. Tareas de accionamiento recomendado: Revisar el informe que Azure OpenAI genera en los comentarios del incidente, donde ofrece recomendaciones para reducir falsos positivos.

¿Te ha parecido interesante este caso de uso? Si quieres saber más sobre cómo mejorar la ciberseguridad de tu empresa, no te pierdas nuestro evento digital para aprender a través de una demo inédita cómo abordar una defensa completa con un SOC moderno.

Accede al evento bajo demanda →