Delincuentes usan un “deepfake” para intentar engañar a una mujer y robarle en Florida: la IA entra en la ingeniería social del crimen

Delincuentes intentaron engañar a una mujer en Florida con un video deepfake que simulaba el robo de una camioneta para sacarla del estacionamiento. El caso evidencia cómo la inteligencia artificial ya se usa para extorsión e ingeniería social, en un contexto donde el fraude facilitado por IA podría superar los USD 40.000 millones en 2027

0
12
Foto Cortesía

La inteligencia artificial ya no es solo una herramienta para crear videos virales o manipular discursos políticos. Ahora también se está usando para cometer delitos. Una mujer en West Palm Beach, Florida, fue abordada por desconocidos que intentaron engañarla con un deepfake que simulaba el robo de la camioneta de su esposo. El objetivo: manipular sus emociones y sacarla del estacionamiento para atraparla. Con información de Infobae.

El hecho ocurrió el 17 de octubre de 2025, alrededor de las 10:00 p. m., en el estacionamiento de una ferretería sobre Palm Beach Lakes Boulevard. Melanie Valentine había salido un momento para duplicar unas llaves cuando un joven se acercó y, mostrándole un video en su teléfono, afirmó que estaban robando su vehículo. El material —aparentemente real— tenía la estética de una cámara de seguridad.

El joven insistió para que lo acompañara fuera del local para “atrapar al ladrón”. Algo no le pareció lógico. Valentine decidió no actuar impulsivamente y llamó a la policía. Mientras tanto, un vecino revisó la camioneta y confirmó que seguía allí. Sin embargo, vio a otra persona escondida detrás del vehículo, lo que alertó a seguridad del local.

La policía llegó al lugar. La agente que atendió el caso reconoció que era la primera vez que veía un intento de estafa utilizando un video falso generado con IA. Valentine lo resumió así:

“Afortunadamente, tuve la sensatez. No los seguí afuera. ¿Quién sabe qué habría pasado?”

Lo que parecía un intento improvisado revela un punto de inflexión en la evolución del delito: las estafas ya no se limitan a correos o mensajes fraudulentos. Ahora hay videos hiperrealistas diseñados para manipular emociones, activar la impulsividad y lograr que la víctima actúe sin pensar.

La firma de ciberseguridad DeepStrike estima que el fraude financiero facilitado por IA generativa superará los 40.000 millones de dólares en 2027 solo en Estados Unidos, más del triple que en 2023. En cuanto a los deepfakes, se prevé pasar de 500.000 imágenes y videos manipulados en 2024 a casi 8 millones en un año.

Organismos especializados ya alertan sobre los riesgos. El Observatorio de Deepfakes de ISMS Forum advierte que estas técnicas pueden usarse para:
• Suplantación de identidad en fraudes bancarios.
• Transferencias ilícitas con documentos falsos.
• Extorsión mediante videos íntimos manipulados.
• Desinformación y manipulación electoral.
• Daño reputacional sin posibilidad de respuesta inmediata.

Los expertos advierten que la autenticación biométrica —como el reconocimiento facial— también está en riesgo: un deepfake bien diseñado puede engañar a sistemas que antes se consideraban seguros.

El caso de Valentine evidencia que la inteligencia artificial puede convertirse en una herramienta para el crimen emocional, donde el delincuente no busca solo robar, sino controlar decisiones en tiempo real manipulando el miedo, la urgencia o la paranoia.

La investigación policial continúa, pero el mensaje es claro:

en la era de los contenidos sintéticos, ya no se puede confiar en todo lo que se ve en una pantalla.

El episodio es una señal de alarma sobre la urgencia de fortalecer la educación digital y la verificación constante de la información antes de actuar. El clic impulsivo —o en este caso, el paso en falso— puede ser la diferencia entre estar a salvo y caer en una trampa.

Dejar una respuesta

Por favor, introduce tu comentario
Por favor, introduzca su nombre aquí