El lado oscuro de la IA agéntica: cinco riesgos de seguridad que podrían pasar desapercibidos

A medida que los agentes de IA se integran en el día a día de las organizaciones y se convierten en una nueva interfaz para interactuar con servicios y datos, su adopción resulta prácticamente inevitable. Pero esta rápida incorporación también trae consigo un lado menos visible: nuevos vectores de riesgo difíciles de anticipar. CyberArk alerta sobre cinco amenazas de seguridad que podrían pasar desapercibidas en el despliegue de la IA agéntica.

 

  1. Humanos y estaciones de trabajo como motores de productividad: Al integrar la inteligencia artificial desde la estación de trabajo, el navegador o apps SaaS, los usuarios pueden aumentar su productividad. Los agentes permitirán a los usuarios convertirse en gestores de equipos virtuales autónomos e interactivos. Sin embargo, el uso intensivo de IA también eleva el riesgo frente a amenazas internas o externas.

 

  1. Agentes de IA en la sombra: autonomía invisible: Los equipos de IA y desarrollo pueden implementar agentes de IA de forma autónoma y en segundo plano. Además, los equipos técnicos y usuarios pueden desplegar agentes de IA sin control ni visibilidad del área de TI. Esta implementación informal genera riesgos, ya que los agentes no autorizados podrían actuar sin supervisión en entornos sensibles, por lo que se les denomina “agentes de IA en la sombra”, ya que operan en la sombra sin la supervisión adecuada.

 

  1. Desarrolladores como departamentos de I+D y operaciones: La introducción de la IA generativa ha mejorado la productividad de los desarrolladores, ya que ahora pasan de colaboradores individuales a equipos completos, capaces de gestionar todo el ciclo de vida de una aplicación. Esta autonomía multiplica su productividad y privilegios, lo que convierte su identidad en una de las más críticas en términos de seguridad empresarial. En consecuencia, si la identidad de un desarrollador se ve comprometida, el riesgo aumenta drásticamente, convirtiéndola en una de las identidades más poderosas de la empresa.

 

  1. Humanos en el circuito: riesgos y responsabilidades: La supervisión humana es clave para validar decisiones, guiar el aprendizaje de los agentes de IA y garantizar que los agentes funcionen según lo previsto. Pero, a pesar de que el proceso de intervención humana es esencial para mantener el control y la supervisión, también podrían convertirse en puertas de entrada para ataques, lo que convierte su rol en un punto crítico de vulnerabilidad.

 

  1. Supervisión masiva, millones de agentes de IA: Las identidades de máquinas ya superan ampliamente a las humanas y la proporción podría dispararse a más de 2000 a 1, según la visión de Jensen Huang para NVIDIA (50 000 personas gestionando 100 millones de agentes de IA por departamento). La existencia de millones de agentes de IA ejecutándose en un entorno empresarial tiene aún más sentido, ya que las mejores prácticas para desarrollar aplicaciones que utilizan agentes de IA sugieren dividir las tareas en varios agentes especializados, más pequeños, que trabajan juntos para lograr un objetivo más amplio. Este aumento exponencial del volumen de identidades de máquinas también plantea desafíos importantes a la hora de gestionar y proteger dichas identidades.

 

Para hacer frente a estos riesgos emergentes, las organizaciones deben asegurar que la implementación de la IA agéntica se realice bajo estrictos estándares de seguridad y cumplimiento. Esto implica establecer un control total sobre las actividades de los agentes, aplicar mecanismos de autenticación sólidos, limitar los privilegios al mínimo indispensable, habilitar accesos just-in-time (JIT) y auditar exhaustivamente cada sesión para vincular acciones con identidades específicas.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.