La IA que inventa caras de personas. Deepfake.

La IA que inventa caras de personas que no existen y cómo se están usando en perfiles falsos

Puede que ya te haya pasado sin saberlo: ver un perfil en redes, una foto de alguien perfectamente normal —ni demasiado guapo, ni demasiado feo, ni demasiado llamativo— y sentir que puedes confiar. Pero cada vez es más probable que esa cara no pertenezca a nadie real. Es un deepfake, generado por inteligencia artificial para parecer justo lo bastante creíble.

En los últimos años, los modelos de IA para crear rostros han avanzado tanto que, según varios estudios, muchas personas no son capaces de distinguir entre una foto real y una imagen generada. Y eso está teniendo consecuencias muy serias en perfiles falsos, estafas y campañas de manipulación.

Cómo funciona la IA que genera caras desde cero

Los sistemas que crean estos rostros se basan en redes generativas (GAN, modelos de difusión, etc.) entrenadas con millones de fotos reales. Con el tiempo, aprenden las “reglas” de una cara humana: proporciones, iluminación, textura de piel, mirada… y son capaces de combinarlo todo para generar una imagen nueva que no corresponde a nadie.

Estudios recientes muestran que estas caras sintéticas son tan convincentes que incluso expertos tienen dificultades para diferenciarlas, sobre todo cuando se afinan detalles como simetría, iluminación y pequeños “defectos” realistas.

En TecnoOrbita ya hemos hablado de cómo la inteligencia artificial se cuela en cada rincón, desde el AI Act europeo que intenta poner límites hasta el impacto de los centros de datos que alimentan estos modelos, como contamos en el artículo sobre la demanda energética de la IA y los data centers. Las caras generadas son una pieza más de ese puzzle.

Perfiles falsos cada vez más difíciles de detectar

Un trabajo reciente analizó a gran escala cómo se usan estas imágenes en redes como X (antes Twitter) y encontró miles de cuentas con fotos de perfil generadas por IA, muchas ligadas a campañas de spam, bots políticos o estafas.

El problema no es solo que exista un deepfake, sino que su “normalidad” juega a favor del engaño: ya no son fotos robadas de famosos, sino de personas inventadas que no devolverán resultados si haces una búsqueda inversa. Eso hace mucho más difícil demostrar que hay gato encerrado.

Plataformas y reguladores empiezan a reaccionar, pero van por detrás. Algunas leyes, como el Digital Services Act y el futuro marco europeo de IA, exigen etiquetar contenido manipulado o sintético, pero su aplicación práctica aún está en pañales.

Cuando el deepfake salta a lo íntimo: porno, venganza y bullying

Lo más preocupante del fenómeno no son solo los perfiles falsos “inocentes”, sino el uso del deepfake para generar imágenes íntimas no consentidas. Investigaciones recientes han mostrado decenas de miles de vídeos pornográficos manipulados con caras de famosas, que acumulan cientos de millones de visitas.

El problema ya ha llegado también a menores: en países como Irlanda se han detectado casos de apps de “nudificación” que generan fotos falsas de adolescentes a partir de imágenes normales, con impactos devastadores en víctimas de bullying y acoso.

Es un salto cualitativo respecto a los famosos “montajes” de hace años. Ahora, con unos pocos clics, cualquiera puede crear un deepfake creíble de un compañero de clase, una expareja o un desconocido, y difundirlo en segundos.

La IA que inventa caras de personas. Deepfake.

Cómo puedes sospechar que una cara es falsa

No existe una receta infalible, pero sí pistas. Algunos investigadores recomiendan fijarse en:

  • Fondos extraños o borrosos, sin detalles lógicos.
  • Pendientes o gafas asimétricos.
  • Pelo que se desdibuja en los bordes.
  • Iluminación poco coherente entre rostro y fondo.

También es útil pasar la imagen por buscadores inversos (Google Imágenes, Yandex, etc.). Si no aparece ningún resultado similar, no es prueba de nada, pero en contexto de sospecha, suma. Algunas herramientas online empiezan a ofrecer detectores automáticos de deepfake, aunque su precisión aún es limitada.

En TecnoOrbita hemos insistido en otras ocasiones en la importancia de no fiarse de lo primero que ves en pantalla, ya sea una rebaja demasiado buena para ser verdad o una app que se presenta como “invisible”, como contábamos en el artículo sobre apps invisibles que roban datos. Con las caras generadas pasa exactamente lo mismo.

Qué puedes hacer para protegerte

No puedes evitar que existan caras generadas, pero sí puedes reducir el impacto que tienen en tu vida digital:

  • Desconfiar de perfiles nuevos con fotos “perfectamente normales” pero poca actividad real.
  • Evitar enviar datos personales, fotos íntimas o dinero a personas que solo conoces online.
  • Verificar identidades por varias vías (videollamada, contactos en común, etc.).
  • Denunciar perfiles que usen imágenes manipuladas o te acosen con contenido falso.

El deepfake no va a desaparecer, pero entender cómo funciona y dónde se está usando es el primer paso para no caer en su parte más oscura. Igual que hemos aprendido a sospechar de correos de phishing, tendremos que aprender a mirar con otros ojos las fotos de perfil “demasiado perfectas” que nos aparecen cada día en redes, apps de citas y plataformas de trabajo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *