Uno de los grandes misterios del mundo digital es si realmente existe alguien que se haya leído de manera sistemática los términos y condiciones de uso de plataformas y servicios digitales, redes sociales o, más recientemente, ecosistemas de inteligencia artificial. Y, aunque pueda parecer gracioso, en realidad es peligroso no hacerlo, a pesar de que en muchos casos vaya a servir de poco porque el común de los mortales probablemente no podría comprender en toda su extensión determinados límites ni prácticas que le afectarán directamente como usuario de esos servicios.
Sin embargo, de sobra es sabido por casi cualquier usuario que todo aquello que comparta a través de internet quedará insertado en una especie de ‘esfera pública’ que le hará perder el control no ya de su propiedad, sino de las derivadas que puedan sucederse. No en vano, cualquier contenido publicado por un usuario en redes sociales puede ser replicado por otros usuarios, modificado, alterado, tergiversado o, simplemente, descargado para usos particulares, lícitos o no, que desconoceremos en la mayoría de las ocasiones. Verlo así da vértigo, pero no siempre reparamos en ello.
“En muchas ocasiones no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado serverio digital. Sólo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo.”
«Muchas veces no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado servicio digital. Solo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo», reconoce Silvia Martínez, profesora colaboradora de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC) e investigadora del grupo GAME.
Por si todo esto fuera poco, la irrupción de la inteligencia artificial (IA) en nuestras vidas, y en todos los ámbitos de esta, implica añadir una capa adicional de riesgo a la actividad digital de los usuarios. No solo por el hecho de que estos sistemas pueden alterar imágenes y vídeos de personas reales con asombrosa facilidad y por parte de cualquiera, sino porque esas imágenes y vídeos se convierten, a su vez, en material para el entrenamiento y la mejora de estos sistemas. «Imagina que enseñas a un niño a reconocer una cara: le muestras varias fotos de la misma persona, desde distintos ángulos, con diferentes expresiones. Poco a poco, empieza a identificarla. Pues las inteligencias artificiales aprenden de forma parecida: para entrenarlas con imágenes personales,se les da una colección de fotos o vídeos en los que aparece siempre la misma persona. Cuantas más imágenes tenga, mejor aprenderá sus rasgos: la forma de los ojos, la curvatura de la sonrisa, el tono de piel, la manera en que se arrugan los párpados al reír…», explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC.
La ciencia detrás de la IA
Aunque parezca simple, detrás de este proceso existe una complejidad técnica que evidencia la naturaleza y el potencial de un modelo extenso de lenguaje (LLM), o sea, el ‘cerebro’ que hay detrás de una IA. «Detrás de este proceso hay redes neuronales profundas, una tecnología inspirada, de forma muy simplificada, en cómo funciona el cerebro humano«, añade el profesor, quien destaca que «estas redes procesan millones de datos visuales y aprenden a representar una cara como una especie de ‘huella matemática’ muy precisa, pero invisible al ojo humano». Simplificando: cuando una IA aprende a identificar un rostro humano, también se empodera para poder crear, en adelante, «nuevas imágenes hiperrealistas a partir de lo aprendido», apunta. Y es ahí donde nacen los deepfakes y memes que pueblan las redes sociales. Algunos, con la simple intención de hacer reír; otros, con la de manipular, engañar e incluso estafar a terceros.
Dónde termina el humor y comienza la estafa
Existe una clara diferencia entre el uso que hagamos los propios usuarios de nuestras imágenes para ‘jugar’ con la inteligencia artificial y el que hagan terceros no autorizados con intereses no siempre lícitos. En ambos casos, sin embargo, nuestra información queda a merced del propietario del servicio o plataforma, que «no sabemos qué hará después con lo que estamos subiendo a internet, en unos casos por no consultar las bases o condiciones que aceptamos y en otros porque, aunque se lean, el lenguaje empleado dificulta su comprensión», alerta la profesora Silvia Martínez.
Recientemente se ha filtrado que Meta, que se reserva el derecho de utilizar los contenidos que los usuarios comparten en Facebook o Instagram para entrenar a sus modelos de IA, podría plantear acceder a todas las fotografías que almacenen los usuarios en sus dispositivos, incluso aquellas que no han compartido en redes sociales, para este mismo fin. Sería algo opcional a lo que el usuario podría negarse explícitamente, pero evidencia la voracidad de estas plataformas a la hora de buscar nuevos materiales con los que mejorar su tecnología, en el marco de una encarnizada carrera por dominar un sector que promete generar un negocio que podría rondar los 300.000 millones de dólares ya en 2025, según varios estudios independientes, entre ellos los de Mordor Intelligence y Fortune Business Insights.
A pesar de lo llamativo de esta propuesta, en la Unión Europea sería de difícil aplicación. «En Europa, el uso de imágenes personales para entrenar sistemas de IA está sujeto a normas estrictas de protección de datos, como el RGPD. Cualquier uso de datos personales, como imágenes que publica un usuario, requiere una base jurídica válida como el consentimiento del interés legítimo», destaca Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Políticade la UOC.
En este sentido, el nuevo Reglamento de inteligencia artificial (AI Act) busca regular los usos de esta tecnología en la UE e «introduce obligaciones adicionales cuando se usan datos personales en sistemas de alto riesgo», añade el experto, quien subraya las diferencias del enfoque europeo respecto al estadounidense, donde predomina «un modelo más flexible, basado en la autorregulación empresarial y el principio del fair use», o el chino, que «adopta un enfoque mucho más centralizado y orientado al control estatal», y que «permite el uso masivo de datos, incluidos los biométricos, por parte del Estado y grandes empresas tecnológicas, con una protección más débil de los derechos individuales frente al interés público o la seguridad nacional», apunta.
Los riesgos de la IA
Cuando despunta cualquier tecnología, los agoreros se afanan por propagar los riesgos inherentes a esta. Pero el caso de la inteligencia artificial es especialmente sensible, dadas las capacidades que tiene esta tecnología. «Los riesgos que plantea esta tecnología no son hipotéticos ni lejanos: ya están aquí, y afectan tanto a empresas como a personas corrientes. Uno de los más graves es el robo de identidad: con solo unas cuantas imágenes públicas, una foto de perfil o un vídeo en redes, una IA puede generar un vídeo hiperrealista en el que tú pareces hablar, mirar a cámara o decir cosas que jamás has dicho», explica el profesor Antonio Pita. Y ese ni siquiera es el mayor riesgo. «En muchos casos, la víctima no llega ni a saber que su imagen ha sido utilizada hasta que el daño ya está hecho. Y todo esto afecta no solo a grandes figuras, sino también a personas corrientes que, sin saberlo, pueden ver su imagen usada en contextos falsos, dañando su reputación y confianza», advierte, antes de subrayar que «literalmente, alguien puede ‘ser tú’ en vídeo sin que tú lo sepas».
En este sentido, no resulta sencillo defenderse de estas prácticas. A lo sumo, los usuarios pueden vetar a las plataformas el uso de sus fotos y vídeos para entrenar a sus modelos de IA. Pero el verdadero riesgo está en lo que pueden hacer otros usuarios con esas fotos y vídeos compartidos. Y ahí el único veto es no usar esas plataformas, quedándonos aislados de un ecosistema donde se mueve la vida digital, aunque el profesor Eduard Blasi subraya que «el hecho de que compartamos libremente una imagen en redes sociales no significa que perdamos todos nuestros derechos sobre ella», ya que «nuestra imagen sigue protegida por el derecho fundamental a la propia imagen, y también por la normativa de protección de datos personales», que «reconoce al titular del dato un poder de control sobre su información; es decir, decidir, por ejemplo, quién la puede tratar, para qué fines y durante cuánto tiempo», explica.
A pesar de ello, parece que el papel del legislador no siempre será capaz de responder a estos retos. «Para regular, primero hay que tener en cuenta que la tecnología no es en sí misma buena o mala; depende de cómo y para qué se use. Y, en segundo lugar, evoluciona muy rápido y opera en un entorno globalizado en el que se producen infinidad de interacciones al día, lo que dificulta también el control», reconoce Silvia Martínez. Crear un deepfake de otra persona ya está más o menos prohibido, en función de la intencionalidad que tenga el vídeo, pero eso no evita que sigamos viendo fotos y vídeos manipulados, en ocasiones con la asombrosa connivencia por omisión de las plataformas, que continúan permitiendo anuncios de estafas que utilizan a personas reales dando discursos falsos para vender un producto o servicio.
«Aunque la mayoría de las imágenes y los vídeos generados por IA son detectables porque sus creadores no son profesionales, aquellas imágenes o vídeos generados por profesionales son prácticamente indistinguibles de la realidad», advierte Antonio Pita. Eso, unido a que la alfabetización digital de gran parte de la población deja mucho que desear, hace que estos contenidos salgan a cuenta para quien los crea. «Un ejemplo impactante: hace unos meses, en Vigo (Galicia), una empresa sufrió una estafa sofisticada. Unos ciberdelincuentes convocaron a un trabajador a una videollamada aparentemente con su CEO, pero era una IA imitando la voz y los gestos del director. El empleado transfirió 100.000 euros, pensando que era una orden real», relata el profesor, quien añade que «parece ciencia ficción; pero, por desgracia, es muy real». Y esa es la realidad en la que vivimos, a veces sin darnos cuenta.
A pesar de todo, hay una pequeña ventana a la esperanza: las plataformas ya están etiquetando el contenido generado por IA para alertar a los usuarios, y empiezan a ganar terreno algoritmos y servicios capaces de analizar imágenes y vídeos para determinar si han sido manipulados. Entre eso y «el sentido común, el pensamiento crítico y el conocimiento«, como aconseja el profesor Pita, los usuarios ya tenemos herramientas para defendernos de la cara negativa de una tecnología llamada a facilitar nuestras vidas en todos los ámbitos imaginables.