Check Point® Software Technologies Ltd., empresa global en soluciones de ciberseguridad, alerta de que la nueva generación de modelos de inteligencia artificial integrada directamente en los entornos de productividad, como Gemini 3 Pro en Google Workspace, ha convertido la IA en un nuevo perímetro empresarial que requiere controles específicos. Según la compañía, la IA ya no es una herramienta aislada, sino una capa operativa que tiene acceso a correos, documentos, APIs, flujos de trabajo y sistemas críticos, lo que multiplica los vectores de riesgo.
La llegada de Gemini 3 Pro acelera una tendencia que ya se veía en plataformas como Microsoft 365 con Copilot: la IA deja de actuar desde fuera y pasa a operar dentro de la infraestructura corporativa, con capacidad para resumir conversaciones, manipular documentos, interpretar archivos PDF, automatizar tareas o llamar a servicios internos. Cuando la IA ejecuta acciones reales, la superficie de ataque se amplía y buena parte de este riesgo es invisible para los controles tradicionales.
“Las empresas están incorporando IA a gran velocidad, pero sin dotarla del nivel de supervisión y seguridad que exige su nuevo papel operativo. Gemini 3 Pro demuestra que la IA ya no es un asistente, sino un agente integrado en el tejido digital de la empresa. El reto ahora es controlar qué puede hacer y cómo lo hace”, señala Eusebio Nieva, director técnico de Check Point Software para España y Portugal.
Inyección indirecta de prompts, multimodalidad y comportamiento agentivo: el nuevo perímetro de riesgo
Check Point Software advierte de que la inyección indirecta de prompts es uno de los vectores de riesgo que más crece. A diferencia de las instrucciones que introduce la persona usuaria, estas manipulaciones se ocultan en el contenido que analiza la IA: un PDF alterado, una firma de correo, un enlace con código oculto o una imagen modificada pueden cambiar el comportamiento del modelo sin interacción directa. Con herramientas como Gemini 3 Pro, que procesan correos, documentos y archivos en la nube, cualquier elemento manipulado puede activar automatizaciones o respuestas inesperadas que los controles tradicionales no detectan.
Las aportaciones de Lakera, compañía perteneciente a Check Point Software, han demostrado que esta técnica permite atacar no los prompts, sino el propio contenido que consume el modelo, ampliando significativamente el riesgo en entornos corporativos. Además, Lakera ha documentado ciberataques multimodales en los que audios o imágenes manipuladas influyen en los modelos sin dejar rastro evidente, añadiendo vectores que las soluciones de seguridad clásicas no cubren.
A esto se suman las capacidades agentivas de Gemini 3 Pro, que permiten a la IA ejecutar acciones, activar automatizaciones o acceder a APIs internas. Según el análisis de Lakera, una configuración con permisos demasiado amplios o sin supervisión continua puede llevar a comportamientos imprevisibles o accesos no autorizados. Por ello, Check Point Software subraya que la seguridad debe centrarse en qué puede hacer la IA y a qué puede acceder, no solo en lo que es capaz de generar.
Un nuevo reto: la brecha entre adopción y seguridad se amplía
La rápida adopción de herramientas de IA en las empresas está creando un desfase claro entre uso y protección. Según Check Point Software, la mayoría de las organizaciones todavía carece de políticas de gobernanza de IA, validaciones adversarias, controles multimodales o sistemas capaces de monitorizar el comportamiento de agentes autónomos. Esta brecha aumenta el riesgo a medida que la IA asume tareas operativas de mayor relevancia.
Gemini 3 Pro acelera ese desequilibrio: impulsa la productividad, pero también amplía el perímetro de riesgo al integrarse de forma nativa en el ecosistema de Google Workspace y operar sobre información crítica. Aunque los primeros análisis internos muestran que el modelo ofrece buena resistencia frente a manipulación directa, su seguridad depende de la configuración, los guardrails aplicados y la validación constante de sus acciones. La propia compañía insiste en que el modelo no constituye por sí solo una estrategia de seguridad, y que la protección real depende del control de entradas, salidas y permisos.
En este escenario, la llegada de Gemini 3 Pro transforma por completo la responsabilidad de los equipos directivos. La cuestión ya no es cuán avanzada es un modelo, sino qué está autorizado a hacer dentro de la organización, con qué información puede trabajar, cuáles son sus límites y quién supervisa sus acciones. La IA se ha convertido en un nuevo perímetro empresarial: dinámico, complejo y difícil de identificar con las herramientas tradicionales.
“La integración de la IA en la infraestructura operativa exige un enfoque diferente. La prevención, la gobernanza y la supervisión continua serán esenciales para mantener el control en este nuevo escenario”, concluye Eusebio Nieva.

