La inteligencia artificial está revolucionando el panorama empresarial, pero también redefiniendo el riesgo cibernético. Así lo confirma el nuevo informe State of AI Security Report 1H 2025 de Trend Micro, líder mundial en ciberseguridad, que analiza el impacto de la IA tanto como herramienta de defensa como de ataque.
En esta línea, la IA está dando forma a una nueva generación de ciberdelincuencia, el llamado cibercrimen 2.0. Según el informe, el uso de deepfakes se ha disparado: un 36 % de los usuarios afirma haber sufrido intentos de estafa con contenido manipulado mediante inteligencia artificial. Estos ataques se emplean tanto en campañas masivas de fraude como en acciones dirigidas contra empresas, donde los criminales utilizan vídeos o audios falsificados para engañar a empleados, clientes y socios comerciales.
Asimismo, esta tecnología está facilitando el fraude en criptomonedas mediante la creación de identidades falsas capaces de burlar los sistemas de verificación electrónica. En los foros clandestinos también se observa el auge del modelo “jailbreak-as-a-service”, que ofrece a los delincuentes herramientas para eliminar las restricciones éticas de los modelos comerciales de IA, generando respuestas sin limitaciones y potenciando así el desarrollo de software malicioso cada vez más sofisticado.
La compañía alerta también de que el 93 % de los responsables de seguridad espera enfrentarse a ataques impulsados por IA de forma diaria, un dato que refleja un cambio profundo en la naturaleza de las amenazas digitales.
De acuerdo con el World Economic Forum, un 66 % de las organizaciones considera que la inteligencia artificial impactará en su estrategia de ciberseguridad durante los próximos años. Sin embargo, el estudio de Trend Micro va más allá y revela un panorama en el que los ciberdelincuentes están utilizando la IA para perfeccionar sus ofensivas, automatizar tareas maliciosas y generar amenazas más difíciles de detectar.
El informe de Trend Micro advierte además de que más de 12 200 servidores de IA permanecen actualmente expuestos públicamente, muchos de ellos sin autenticación ni mecanismos de protección. Esta exposición representa un riesgo importante de robo de datos, manipulación de modelos o incluso secuestro de infraestructuras mediante ransomware.
“Todavía hay muchas incógnitas sobre cómo deben utilizarse los modelos de IA y qué implicaciones tiene el manejo de datos personales”, explica Jose de la Cruz, director técnico de Trend Micro Iberia. “La clave está en definir claramente qué datos se usan, dónde residen y qué ocurre con ellos dentro de los modelos de IA. Sin una gestión responsable y segura de esa información, las empresas quedan expuestas a nuevos vectores de ataque”.