A medida que los agentes de IA se integran en el día a día de las organizaciones y se convierten en una nueva interfaz para interactuar con servicios y datos, su adopción resulta prácticamente inevitable. Pero esta rápida incorporación también trae consigo un lado menos visible: nuevos vectores de riesgo difíciles de anticipar. CyberArk alerta sobre cinco amenazas de seguridad que podrían pasar desapercibidas en el despliegue de la IA agéntica.
- Humanos y estaciones de trabajo como motores de productividad: Al integrar la inteligencia artificial desde la estación de trabajo, el navegador o apps SaaS, los usuarios pueden aumentar su productividad. Los agentes permitirán a los usuarios convertirse en gestores de equipos virtuales autónomos e interactivos. Sin embargo, el uso intensivo de IA también eleva el riesgo frente a amenazas internas o externas.
- Agentes de IA en la sombra: autonomía invisible: Los equipos de IA y desarrollo pueden implementar agentes de IA de forma autónoma y en segundo plano. Además, los equipos técnicos y usuarios pueden desplegar agentes de IA sin control ni visibilidad del área de TI. Esta implementación informal genera riesgos, ya que los agentes no autorizados podrían actuar sin supervisión en entornos sensibles, por lo que se les denomina “agentes de IA en la sombra”, ya que operan en la sombra sin la supervisión adecuada.
- Desarrolladores como departamentos de I+D y operaciones: La introducción de la IA generativa ha mejorado la productividad de los desarrolladores, ya que ahora pasan de colaboradores individuales a equipos completos, capaces de gestionar todo el ciclo de vida de una aplicación. Esta autonomía multiplica su productividad y privilegios, lo que convierte su identidad en una de las más críticas en términos de seguridad empresarial. En consecuencia, si la identidad de un desarrollador se ve comprometida, el riesgo aumenta drásticamente, convirtiéndola en una de las identidades más poderosas de la empresa.
- Humanos en el circuito: riesgos y responsabilidades: La supervisión humana es clave para validar decisiones, guiar el aprendizaje de los agentes de IA y garantizar que los agentes funcionen según lo previsto. Pero, a pesar de que el proceso de intervención humana es esencial para mantener el control y la supervisión, también podrían convertirse en puertas de entrada para ataques, lo que convierte su rol en un punto crítico de vulnerabilidad.
- Supervisión masiva, millones de agentes de IA: Las identidades de máquinas ya superan ampliamente a las humanas y la proporción podría dispararse a más de 2000 a 1, según la visión de Jensen Huang para NVIDIA (50 000 personas gestionando 100 millones de agentes de IA por departamento). La existencia de millones de agentes de IA ejecutándose en un entorno empresarial tiene aún más sentido, ya que las mejores prácticas para desarrollar aplicaciones que utilizan agentes de IA sugieren dividir las tareas en varios agentes especializados, más pequeños, que trabajan juntos para lograr un objetivo más amplio. Este aumento exponencial del volumen de identidades de máquinas también plantea desafíos importantes a la hora de gestionar y proteger dichas identidades.
Para hacer frente a estos riesgos emergentes, las organizaciones deben asegurar que la implementación de la IA agéntica se realice bajo estrictos estándares de seguridad y cumplimiento. Esto implica establecer un control total sobre las actividades de los agentes, aplicar mecanismos de autenticación sólidos, limitar los privilegios al mínimo indispensable, habilitar accesos just-in-time (JIT) y auditar exhaustivamente cada sesión para vincular acciones con identidades específicas.