Ciberamenazas en la era de la IA: Los agentes autónomos amplificarán los riesgos internos

Pese a que el panorama de amenazas está más fragmentado, las amenazas internas siguen siendo una de las principales preocupaciones de los responsables de seguridad en las organizaciones. Además, la irrupción de la IA agéntica podría agravar las cosas con distintos agentes dentro de la ecuación del riesgo, operando como superusuarios con altos privilegios, a quienes se les otorga acceso a datos y sistemas sensibles. Según Proofpoint, empresa de ciberseguridad centrada en las personas y los agentes de IA, los copilotos autónomos podrían superar este año a los humanos como fuente de filtraciones.

Las organizaciones se han lanzado a adoptar agentes autónomos que pueden navegar, escribir código y actuar en múltiples sistemas. No obstante, si estos sistemas están mal configurados, los agentes pueden desencadenar flujos de trabajo que exponen datos sensibles o debilitan los controles de seguridad; y en escenarios adversos, el comportamiento del agente puede ser manipulado para lograr resultados no autorizados.

 

“Los programas tradicionales sobre amenazas internas se diseñaron en torno al comportamiento humano, incidiendo en sus motivos, oportunidades, accesos y controles a través del correo electrónico, la nube, las plataformas de colaboración y las aplicaciones empresariales. La IA amplifica cada una de estas dimensiones con nuevas formas de riesgo, nuevas señales a detectar y nuevas responsabilidades interfuncionales a gestionar, mientras prácticamente la mitad de las organizaciones carece de recursos dedicados al riesgo interno. Los agentes no son meras herramientas, sino identidades por derecho propio, y los equipos de seguridad tendrán que centrarse también en ellos, gestionando sus privilegios, supervisando sus comportamientos y evaluando sus riesgos”, afirman los investigadores de Proofpoint.

En este espacio de trabajo agéntico, donde las personas y los agentes de IA trabajan codo a codo, aumentarán los comportamientos accidentales, imprudentes y oportunistas. Por un lado, los asistentes basados en grandes modelos de lenguaje, como Copilot, ChatGPT y Gemini, facilitan la exposición de datos sensibles cuando los usuarios los comparten de forma no intencionada a través de prompts, mientras que los agentes de IA pueden acabar resumiendo contenido interno o extrayendo información de fuentes restringidas.

Como resultado, los trabajadores que antes tenían perfiles de bajo riesgo podrían desencadenar escenarios de alto impacto, y cualquier actor malicioso podría convencer a los sistemas de IA a través de prompts para que revelen flujos de trabajo sensibles o ejecuten ataques. La IA elimina muchas barreras técnicas al guiar a los usuarios a través de acciones que antes requerían scripting, conocimientos del sistema o habilidades de administrador.

Los incidentes internos suelen aumentar además en medio de turbulencias corporativas. Esto sucede cuando las organizaciones se lanzan a la caza furtiva de talentos, lo que lleva a muchos profesionales a llevarse datos sensibles de una empresa a otra al cambiar de puesto. También se observa en fusiones, adquisiciones o desinversiones, ya que crean modelos de acceso caóticos, cuentas de transición, propiedad poco clara de los sistemas y empleados estresados, siendo todas ellas unas condiciones ideales para malas prácticas. Asimismo, con la IA, el espionaje corporativo, que continuará este año, se vuelve más fácil, puesto que ayuda a investigar competidores, imitar solicitudes legítimas u ocultar actividad.

Pero no todo son aspectos negativos. En 2026, Proofpoint prevé que la IA no solo impulsará la detección, sino que remodelará la forma en que se investigan, priorizan y resuelven los riesgos internos. La tecnología se convertirá en un multiplicador de fuerzas para el triaje de incidentes, acelerando la toma de decisiones, ya que puede correlacionar señales de bajo nivel, como intentos de inicio de sesión o accesos inusuales, para identificar incidentes de máxima prioridad, así como ingerir grandes volúmenes de telemetría y devolver resúmenes para comprender en minutos lo que antes requería horas de revisión manual.

Este año las organizaciones dejarán de tratar las señales humanas, los datos de identidad y los eventos técnicos como flujos separados. La próxima evolución de la gestión de riesgos internos dependerá de la conexión de estas áreas, puesto que una visión unificada permitirá a los equipos de seguridad una intervención más temprana y controles precisos.

La IA exige asimismo directrices claras, políticas de uso aceptable, interpretaciones éticas y normas de privacidad. Los equipos de riesgo interno deben definir los estándares de gestión, delimitar permisos para los agentes, otorgar autoridad para deshabilitarlos, así como establecer principios para una IA responsable, el uso consentido de datos y la transparencia. Abordar todo ello demanda un enfoque coordinado en toda la organización.

“Para mantenerse a la vanguardia frente a los riesgos internos, las organizaciones deben unificar las señales de identidad, comportamiento y técnicas; adoptar la detección y respuesta impulsadas por IA; y fortalecer la gobernanza interfuncional. Actuando así, lograrán mitigar las amenazas emergentes y construir una base sólida para el futuro del trabajo entre humanos y agentes de IA”, declaran los expertos en amenazas de Proofpoint.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.