Hacer un mal uso de la inteligencia artificial en las empresas es una de las mayores amenazas actuales

La inteligencia artificial está transformando los entornos corporativos, agilizando procesos y automatizando tareas. Sin embargo, Check Point® Software Technologies Ltd, empresa global en soluciones de ciberseguridad, advierte de que su implementación, sin los controles adecuados, representa un riesgo creciente para las empresas.

De acuerdo con el Security Report Iberia 2025 de Check Point Software, entre el 97 % y el 99 % de las empresas ya utilizan herramientas basadas en inteligencia artificial, y un 90 % está priorizando inversiones en IA generativa para reforzar su ciberseguridad. No obstante, los ciberdelincuentes también están aprovechando estas tecnologías para lanzar ataques masivos, altamente personalizados y difíciles de detectar. Correos de phishing automatizados y malware adaptable son solo algunas de las amenazas que la IA ha potenciado en 2025.

No obstante, los riesgos no solo vienen del exterior. El uso inadecuado de estas herramientas dentro de las organizaciones puede derivar en fugas de información confidencial, errores operativos, pérdidas reputacionales y consecuencias legales de gran calado. Entre los riesgos más comunes detectados por Check Point Software, destacan:

  • Fuga de datos confidenciales: empleados que introducen en herramientas como ChatGPT información sensible como contratos, estrategias de negocio o código fuente, exponiendo así datos a modelos públicos sin las garantías adecuadas.
  • Uso de cuentas personales y versiones gratuitas: al no contar con suscripciones corporativas, muchos trabajadores recurren a cuentas propias o versiones abiertas que carecen de políticas de trazabilidad y seguridad, comprometiendo la confidencialidad.
  • Automatización sin supervisión: la generación de informes, decisiones o comunicaciones sin revisar los resultados generados por IA puede conllevar errores graves, sesgos o divulgación de datos sensibles.
  • Prompts inseguros: usuarios que, bajo una falsa sensación de privacidad, incluyen nombres, claves o rutas internas en sus consultas a modelos públicos, exponiendo información crítica.

El almacenamiento y procesamiento de datos corporativos por parte de plataformas como Copilot o Gemini, sin versiones empresariales adecuadas, podría considerarse una externalización sin control. Además, el crecimiento del fenómeno conocido como Shadow IT —el uso de tecnologías sin aprobación del departamento de seguridad o del DPO (Data Protection Officer)— agrava el problema, al dificultar la supervisión y el cumplimiento normativo.

Otro riesgo importante es el entrenamiento inadecuado de modelos con información sensible sin el aislamiento adecuado, lo que puede provocar que los sistemas de IA revelen datos a través de prompts específicos. Los cibercriminales ya están explotando técnicas como la prompt injection para extraer información confidencial, saltándose restricciones de seguridad en los modelos.

El uso indebido de la IA puede derivar en fugas de propiedad intelectual, reutilización no autorizada por terceros y graves incumplimientos legales y éticos, especialmente si se utilizan datos de clientes sin consentimiento, violando normativas como el RGPD, DORA o NIS2.

Las empresas que no protejan adecuadamente la información pueden enfrentarse a sanciones millonarias. En casos de negligencia o falta de auditoría interna sobre el uso de IA, las compañías pueden ser responsables frente a clientes, accionistas o autoridades regulatorias. Además, si un empleado utiliza la IA con fines maliciosos y no existían controles activos, la empresa incluso podría enfrentar consecuencias penales.

 

Para minimizar estos riesgos, Check Point Software recomienda:

  • Establecer políticas claras sobre el uso de IA en el entorno laboral.
  • Implementar soluciones de ciberseguridad con capacidades de monitoreo y protección frente al uso indebido de IA.
  • Formar a los empleados sobre buenas prácticas y peligros asociados.
  • Utilizar únicamente versiones empresariales de herramientas de IA que cumplan con las normativas de privacidad y seguridad.

«La IA debe utilizarse de forma segura y controlada. No basta con implementar estas herramientas; es imprescindible auditar su uso, controlar su entrenamiento y garantizar que no se conviertan en una puerta abierta a amenazas internas o externas», afirma Rafael López, ingeniero de seguridad en Check Point Software.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.