Hasta hace nada, los deepfakes eran cosa de caras y voces. Ahora el siguiente frente son los mensajes: modelos de inteligencia artificial capaces de imitar cómo escribes hasta el punto de que un texto pueda parecer tuyo… sin que lo hayas tocado.
Cómo aprende una IA a escribir como tú
La mecánica es la misma que se usa para entrenar grandes modelos de lenguaje, pero concentrada en tu estilo. La IA necesita ejemplos: correos, chats, publicaciones en redes, comentarios. Con ese material analiza:
- Las palabras y expresiones que repites continuamente.
- La longitud media de tus frases y párrafos.
- Cómo usas emojis, exclamaciones o puntos suspensivos.
- Si respondes con frases cortas o con textos largos que van en bloque.
Con suficientes ejemplos, el sistema construye una especie de “huella lingüística” y puede generar nuevos mensajes que suenan peligrosamente parecidos a los tuyos.
De asistente útil a suplantador creíble
En su versión inocente, esta tecnología sirve para que un asistente te ayude a responder correos o a redactar textos largos manteniendo tu tono. Empresas y herramientas de productividad ya lo ofrecen como función avanzada: tú revisas, corriges y das el visto bueno.
El problema llega cuando la misma técnica se usa sin tu permiso. Varios informes de ciberseguridad explican que los atacantes ya emplean IA para generar correos y mensajes de phishing que imitan el estilo de compañeros de trabajo, jefes o contactos habituales, lo que dispara la tasa de éxito de los engaños.
Otros análisis recientes avisan de lo mismo: con unas pocas muestras públicas (redes sociales, LinkedIn, foros), un modelo puede aproximarse bastante a tu forma de escribir y enviar mensajes que parezcan legítimos.

Qué se puede hacer ya con tus mensajes
Con suficientes datos, la IA puede:
- Generar correos y chats que imitan tu tono para pedir favores, datos o dinero.
- Redactar respuestas automáticas que parezcan tuyas en hilos de WhatsApp o correo.
- Crear conversaciones falsas completas que, en una captura, sean difíciles de discutir.
En TecnoOrbita ya hemos contado cómo la IA crea caras falsas para perfiles digitales. Con los mensajes pasa algo parecido: puedes llegar a tener un “clon textual” que hable como tú, pero que nunca hayas visto ni aprobado.
Otro artículo clave es lo que revela de ti tu actividad digital para los grandes servicios: tus patrones de escritura son parte de ese perfil, y la IA puede aprovecharlo.
Qué sigue siendo difícil (por ahora)
A día de hoy, lo que más le cuesta a la IA no es copiar tu forma de poner emojis, sino tu memoria personal. Detalles como:
- Chistes privados que solo entiendes con una persona.
- Referencias a momentos muy concretos (“lo del viaje a Lisboa en 2019”).
- Manías que cambian según el contexto (no escribes igual a tu jefe que a tu mejor amigo).
Sin embargo, si un modelo tuviera acceso a historiales completos de mensajes con alguien, podría aprender también esos códigos internos. Por eso la combinación de fuga de datos + IA cada vez preocupa más a los expertos en ciberseguridad.
Riesgos para la confianza en lo que leemos
El efecto más peligroso no es solo que alguien pueda engañar a un contacto haciéndose pasar por ti, sino que se erosiona la confianza básica en el “esto lo ha escrito esta persona”. Las consecuencias pueden ser serias:
- Capturas de pantallas discutibles: alguien enseña un chat y tú puedes decir “esto lo ha fabricado una IA”.
- Conflictos personales por mensajes que parecen tuyos, pero no lo son.
- Campañas de desinformación basadas en chats falsos atribuidos a figuras públicas.
Las mismas empresas que alertan de los deepfakes en vídeo están avisando ya de este “deepfake de texto”: imitar tu manera de escribir mensajes es más fácil, más barato y, muchas veces, más efectivo para robar datos o desestabilizar a alguien.
Cómo puedes protegerte (hasta donde se puede)
No hay una fórmula mágica, pero sí varias medidas sensatas:
- Limita qué apps pueden leer tus mensajes o tu correo. Cuantas menos copias de tus textos haya, mejor.
- Activa la verificación en dos pasos en correo, redes y mensajería para evitar robos de cuentas.
- Desconfía de peticiones raras por chat, incluso si parecen venir de alguien conocido.
- Introduce “rituales” de verificación con personas clave: una llamada rápida, una palabra convenida para confirmar algo importante, etc.
También conviene acostumbrarse a preguntar directamente: “oye, ¿has sido tú quien me ha escrito esto?” cuando algo no encaja. Puede parecer incómodo, pero es mejor que tragarse sin más un mensaje que huela raro.
Lo que viene: avisos, etiquetas y más responsabilidad
Probablemente veremos cada vez más asistentes integrados en apps de chat que te ofrezcan “responder por ti” o pulir tus mensajes. Lo ideal sería que, cuando una IA intervenga, quede claro en algún sitio. Pero, igual que pasa con los filtros de imagen, siempre habrá quien prefiera ocultarlo.
Al final, la línea entre herramienta útil y suplantación la vamos a marcar nosotros. Usar IA para que te ayude a redactar está bien; dejar que otra entidad escriba en tu nombre sin control, no tanto. En un mundo donde cualquiera puede imitar cómo escribes, ser claro sobre qué has dicho tú y qué no será casi tan importante como el contenido del mensaje en sí.
La mala noticia es que tus mensajes pueden ser imitados. La buena, que aún puedes decidir cuánto material das, a quién se lo entregas y cómo reaccionas cuando algo no encaja. En esa parte, por suerte, la última palabra la sigues teniendo tú.







