La inteligencia artificial de Meta, centrada en la interacción social y el metaverso, está redefiniendo la experiencia digital, pero también está abriendo la puerta a nuevos riesgos en materia de privacidad, suplantación de identidad y desinformación. Según Check Point® Software Technologies Ltd., empresa global en soluciones de ciberseguridad, el uso intensivo de datos personales y la sofisticación de sus modelos, como la familia LLaMA (Large Language Model Meta AI), pueden convertirse en una seria amenaza si no se aplican controles adecuados.
Meta entrena sus modelos con datos de comportamiento obtenidos de plataformas como Facebook, Instagram, WhatsApp y dispositivos como las Ray-Ban Meta Smart Glasses. Esta integración permite una IA más humana y contextual, pero también abre la posibilidad al procesamiento masivo de información altamente sensible, incluyendo ubicación, patrones de uso, voz, rostro e incluso emociones.
“Meta no solo está desarrollando modelos de texto o asistentes virtuales; está creando experiencias inmersivas mediante IA generativa, avatares inteligentes y contenidos automatizados que pueden alterar la percepción del usuario y poner en riesgo su privacidad”, explica Rafael López, ingeniero de seguridad especializado en protección de correo electrónico de Check Point Software.
Entre los riesgos más relevantes identificados por Check Point Software destacan:
- Recopilación masiva de datos sin consentimiento explícito, especialmente en apps móviles donde las configuraciones predeterminadas ceden información por omisión.
- Correlación de datos entre múltiples plataformas (WhatsApp, Instagram, Facebook), lo que agrava el impacto de una posible filtración.
- Uso malicioso de la IA para la suplantación de identidad, mediante la creación de deepfakes o perfiles automatizados.
- Manipulación de información en redes sociales, mediante bots que generan comentarios y publicaciones falsas en masa, facilitando campañas de desinformación.
La IA también está siendo utilizada en fraudes como el phishing emocional, donde los atacantes se valen de modelos avanzados para redactar mensajes convincentes en estafas sentimentales conocidas como romance scams.
Las empresas que adopten inteligencia artificial como la desarrollada por Meta deben asumir una doble responsabilidad: legal y ética. En el plano normativo, es imprescindible cumplir con el Reglamento General de Protección de Datos (RGPD), garantizar un control riguroso sobre los datos que alimentan los modelos y aplicar filtros que eviten su uso inadecuado.
Para proteger a las compañías y a los usuarios finales frente a los riesgos emergentes de esta tecnología, Check Point Software recomienda:
- Adoptar soluciones avanzadas de detección de amenazas basadas en IA, que permitan identificar comportamientos anómalos y prevenir ataques en tiempo real.
- Impulsar la educación digital y la concienciación del usuario, especialmente en lo relativo al uso de IA generativa y sus implicaciones.
- Establecer marcos éticos sólidos para el desarrollo y aplicación de IA, que garanticen la protección de la privacidad, la transparencia en su funcionamiento y la supervisión humana en usos críticos.
“No basta con desplegar la IA: hay que auditar su funcionamiento, asegurar la transparencia con los usuarios y limitar su aplicación en contextos especialmente sensibles, como la atención médica o psicológica”, afirma Rafael López, ingeniero de seguridad en Check Point Software.