La tecnología que genera estas caras falsas se ha vuelto tan buena que, como explican investigadores citados por medios como Nature, la mayoría de usuarios no sabe distinguirlas de fotos auténticas. Y eso abre un campo enorme para el engaño digital.
Cómo funciona la IA que genera caras inexistentes
El truco se basa en modelos de IA llamados GAN o generadores de imágenes, alimentados con millones de retratos reales. Tras entrenarse, son capaces de crear nuevas caras que no aparecen en ninguna foto original, pero que parecen sacadas de cualquier carnet de identidad.
Webs como la famosa ThisPersonDoesNotExist, analizada y explicada en reportajes de BBC, popularizaron la idea: recargar la página y ver una nueva cara inventada cada vez. Lo que empezó como demostración técnica se ha convertido en materia prima para perfiles falsos.
En TecnoOrbita hemos profundizado en este fenómeno de la IA que inventa caras de personas que no existen y cómo se usan en perfiles falsos, y en el contexto más amplio de deepfakes y riesgos de ciberseguridad en 2025.
Por qué estas caras son perfectas para engañar
Paradójicamente, las caras generadas por IA suelen ser menos sospechosas que muchas fotos reales:
- No tienen antecedentes: no aparecen en otras redes, buscadores o bases de datos de imágenes.
- Están diseñadas para ser “normales”: ni demasiado guapas ni demasiado peculiares, lo justo para inspirar confianza.
- No pueden reclamar derechos de imagen, porque no hay una persona real detrás que pueda denunciar su uso.
Esto las convierte en el disfraz ideal para bots, estafadores o campañas de desinformación. Un informe de Europol sobre uso delictivo de deepfakes ya advertía de este tipo de prácticas: plataformas llenas de identidades sintéticas con caras imposibles de rastrear.

Dónde se están usando ya estas caras falsas
Los casos más repetidos incluyen:
- Perfiles falsos en redes profesionales para ganar credibilidad en mensajes de phishing o ventas agresivas.
- Cuentas en apps de citas utilizadas para estafas románticas o vaciar cuentas bancarias.
- Fotos de “empleados” en webs de empresas fantasma que venden productos o cursos inexistentes.
En TecnoOrbita vimos un ejemplo muy cercano al analizar cómo una voz clonada por IA casi cuela en una gala de famosos. Si la voz puede engañar a miles de personas en directo, imagina lo fácil que es que una foto de perfil con caras perfectas se cuele en tu lista de contactos sin que te plantees nada raro.
Cómo puedes detectar una cara generada por IA (cuando se deja ver)
No hay truco infalible, pero sí pistas visuales que siguen apareciendo en muchas imágenes sintéticas:
- Fondos extraños: objetos deformados, textos ilegibles, patrones que no tienen sentido.
- Asimetrías raras: pendientes distintos, gafas desiguales, mechones duplicados.
- Transiciones raras en el pelo, sobre todo en el contorno con el fondo.
Guías de entidades como la Electronic Frontier Foundation recomiendan combinar estas pistas con comprobaciones básicas: buscar la imagen en Google Imágenes, revisar coherencia del perfil o comprobar si la persona tiene presencia consistente en otras plataformas.
Qué puede pasar con tus propios datos si te cruzas con estas caras
El problema no es solo que existan caras falsas, sino lo que puede ocurrir si confías en ellas:
- Entregar datos personales a alguien que no existe: nombre, correo, teléfono, quizá incluso documentos.
- Instalar software o hacer clic en enlaces enviados por una identidad fantasma.
- Ser parte de campañas de manipulación donde cuentas aparentemente reales amplifican mensajes concretos.
Si lo unimos a fenómenos que ya estudiábamos en TecnoOrbita, como lo que sí se graba de ti cuando usas el móvil todo el día, el cóctel es evidente: datos reales conectándose con caras que no existen para generar perfiles extremadamente detallados sobre tus hábitos y opiniones.
¿Qué se puede hacer para frenar el abuso de estas imágenes?
A nivel individual, las recomendaciones se parecen mucho a las del resto de fraudes online:
- Desconfiar de perfiles nuevos con poco historial, pero mucha intensidad en mensajes.
- Verificar identidades cuando se trata de dinero, trabajo o información sensible.
- Reportar cuentas sospechosas en redes para que las plataformas puedan investigarlas.
En el plano legal y técnico, se está trabajando en marcas de agua invisibles para contenido generado por IA y en sistemas de detección de deepfakes, como recogemos en la guía sobre riesgos y detección de deepfakes en 2025. Pero la realidad, de momento, es que la tecnología que genera caras falsas corre más rápido que la que las detecta.
La nueva alfabetización digital: desconfiar incluso de las caras
Durante años, la educación digital se centró en frases como “no te fíes de lo que lees en internet”. Ahora toca añadir un matiz incómodo: tampoco te fíes automáticamente de las caras que ves.
No significa vivir paranoico, pero sí asumir que la foto amable que hay al otro lado de una pantalla puede ser solo eso: un rostro inventado que alguien ha elegido para que bajes la guardia. Saber que esas caras existen, cómo funcionan y qué uso se les está dando es el primer paso para no ser el siguiente en caer.







