La dependencia de la IA no gestionada multiplica los riesgos regulatorios en las empresas

La adopción acelerada de modelos de lenguaje grandes (LLM) en entornos corporativos está generando un riesgo silencioso para las organizaciones. Según una investigación de TrendAI, unidad de negocio enterprise de Trend Micro, empresa mundial en ciberseguridad, los sistemas de IA pueden ofrecer respuestas distintas ante la misma consulta dependiendo del país, el idioma, el diseño del modelo o los controles aplicados, lo que introduce incertidumbre en procesos críticos para el negocio.

En aplicaciones como atención al cliente, soporte a la toma de decisiones o generación de contenidos corporativos, estas variaciones pueden comprometer la coherencia de la marca, entrar en conflicto con normativas locales y provocar consecuencias legales o reputacionales.

Para analizar este comportamiento, TrendAI ha llevado a cabo miles de experimentos repetidos, a partir de más de 100 modelos de IA, con más de 800 indicaciones específicas diseñadas para evaluar el sesgo, la conciencia política y cultural, el comportamiento de geolocalización, las señales de soberanía de datos y las limitaciones contextuales. Con todo ello, se buscaba medir cómo cambian los resultados a lo largo del tiempo y en diferentes lugares, analizando más de 60 millones de tokens de entrada y más de 500 millones de tokens de salida.

Los resultados revelan que indicaciones idénticas pueden producir respuestas diferentes según la región y el modelo, e incluso variar en interacciones repetidas con el mismo sistema. En escenarios políticamente sensibles, los modelos mostraron claras diferencias de alineación regional. En otras pruebas, los modelos arrojaron resultados inconsistentes u obsoletos en áreas que requieren precisión, como cálculos financieros e información sensible al tiempo.

Muchas compañías dan por hecho que la IA se comporta como el software tradicional, en el que una misma entrada produce siempre una misma salida”, apunta Robert McArdle, director de Investigación en Ciberseguridad de TrendAI. “Nuestra investigación demuestra que esta suposición no es correcta. Los LLM pueden modificar sus respuestas en función de la región, el idioma y las barreras de protección, y esas respuestas pueden cambiar de una interacción a otra. Cuando los resultados de la IA se utilizan directamente en procesos con los clientes o en las decisiones empresariales, las organizaciones corren el riesgo de perder el control de la voz de la marca, la postura de cumplimiento normativo y la alineación cultural”.

El estudio destaca que estos riesgos se intensifican en el caso de las organizaciones internacionales que implementan la inteligencia artificial a través de un único servicio impulsado por esta tecnología, que puede que operar dentro de diferentes marcos legales, sensibilidades políticas y expectativas sociales. También plantea preocupaciones para la adopción en el sector público, donde los resultados generados por la IA pueden percibirse como orientación oficial y donde la dependencia de modelos no localizados puede introducir riesgos de soberanía y accesibilidad.

Por ello, “la IA no debe tratarse como una herramienta de productividad plug-and-play”, añade Robert McArdle. “Las organizaciones deben considerarla como una dependencia de alto riesgo, con una gobernanza clara, una responsabilidad definida y una verificación humana de cualquier resultado orientado al usuario. Eso también significa exigir transparencia a los proveedores de IA en cuanto al comportamiento de los modelos, los datos en los que se basan y dónde se aplican las medidas de seguridad. Sin duda, la IA puede impulsar la innovación y la eficiencia, pero solo cuando se implementa con una comprensión clara de sus limitaciones y con controles que reflejen cómo se comportan estos sistemas en entornos reales”.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.