AESIA podrá sancionar desde agosto: nueva fase en la supervisión de la IA

La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), dirigida por Ignasi Belda, ha anunciado que a partir de agosto de 2025 dispondrá de capacidad sancionadora sobre el uso de tecnologías de inteligencia artificial en España. Esta nueva facultad permitirá imponer multas de hasta 35 millones de euros por infracciones graves, con el objetivo de proteger los derechos de la ciudadanía y asegurar un desarrollo responsable de la IA.

Esta evolución se enmarca dentro de la implementación del Reglamento Europeo de Inteligencia Artificial, que busca establecer una base legal común para un uso ético, seguro y transparente de estas tecnologías en los países miembros.

Desde el entorno empresarial y tecnológico, la noticia se recibe como un cambio significativo en el contexto regulador. Para muchas organizaciones, esto supondrá la necesidad de revisar procesos, evaluar riesgos y reforzar la gobernanza tecnológica interna.

“Es imprescindible que las empresas que aplican IA comprendan que ya no basta con innovar; ahora también deben cumplir con un marco regulador estricto. Esta nueva etapa requiere una mayor profesionalización en la gestión de la inteligencia artificial”, ha señalado Jordi Damià, CEO de LiceoTIC.

Damià también advierte que aún persiste una falta de preparación en muchas empresas, especialmente en el entramado pyme, donde no siempre existen recursos internos para abordar los riesgos legales, éticos y operativos que conlleva el uso de IA: “La colaboración entre perfiles técnicos, jurídicos y de negocio será fundamental para garantizar un cumplimiento adecuado y evitar consecuencias que podrían ser costosas en términos económicos y reputacionales”.

Claves del nuevo marco sancionador:

 

  • Inicio de la capacidad sancionadora: agosto de 2025.
  • Multas previstas: hasta 35 millones de euros, dependiendo de la gravedad de la infracción.
  • Alcance: todas las entidades que desarrollen o utilicen sistemas de IA en territorio español.
  • Objetivo: garantizar que la inteligencia artificial no vulnere derechos fundamentales ni genere impactos negativos no controlados.

Con este nuevo escenario, los directivos de áreas tecnológicas y los responsables de innovación deberán incorporar criterios de compliance en IA en sus procesos de decisión, tanto en el diseño como en la implantación de nuevas soluciones.

“No se trata solo de evitar sanciones, sino de integrar principios de responsabilidad y transparencia desde el inicio del ciclo de vida de los sistemas de IA”, concluye Damià.

TE PUEDE GUSTAR

EVENTOS

RECIBE NUESTRA NEWSLETTER

*Email:

*Nombre:

*Empresa:

Cargo:

Sector:
     

Please don't insert text in the box below!

ESCUCHA NUESTRO PODCAST

SÍGUENOS EN RRSS

MÁS COMENTADOS

Scroll al inicio
Resumen de privacidad

Las cookies y otras tecnologías similares son una parte esencial de cómo funciona nuestra web. El objetivo principal de las cookies es que tu experiencia de navegación sea más cómoda y eficiente y poder mejorar nuestros servicios y la propia web. Aquí podrás obtener toda la información sobre las cookies que utilizamos y podrás activar y/o desactivar las mismas de acuerdo con tus preferencias, salvo aquellas Cookies que son estrictamente necesarias para el funcionamiento de la web de BigDataMagazine. Ten en cuenta que el bloqueo de algunas cookies puede afectar tu experiencia en la web y el funcionamiento de la misma. Al pulsar “Guardar cambios”, se guardará la selección de cookies que has realizado. Si no has seleccionado ninguna opción, pulsar este botón equivaldrá a rechazar todas las cookies. Para más información puedes visitar nuestra Políticas de Cookies. Podrás cambiar en cualquier momento tus preferencias de cookies pinchando en el enlace “Preferencias de cookies” situado en la parte inferior de nuestra web.