Nueva estafa con inteligencia artificial que imita la voz de familiares

Número de Vistas: 75

Alerta por nueva modalidad de estafa con inteligencia artificial que imita la voz de familiares.

Inteligencia Artificial: el cada vez más frecuente uso de voces familiares clonadas para estafas telefónicas (y cómo protegerse) - BBC News Mundo

Una nueva modalidad de estafa ha encendido las alertas: el uso de inteligencia artificial para clonar la voz de familiares o amigos con el objetivo de engañar y obtener dinero de las víctimas. En redes sociales circulan testimonios de personas que aseguran haber recibido llamadas en las que escucharon voces idénticas a las de sus seres queridos, pero que en realidad eran manipuladas digitalmente.

¿Cómo lo hacen?

Estafas en red y en el móvil: 600 víctimas cada día en España

Clonar una voz es un proceso sencillo para cualquier persona con acceso a internet. Plataformas como Descript o Eleven Labs permiten replicar voces a partir de grabaciones públicas, como audios o videos en redes sociales. Una vez cargado ese material, los sistemas de IA pueden generar mensajes escritos con la voz clonada, haciéndolos pasar por comunicaciones reales.

Estrategia de engaño.

Los estafadores suelen seguir un patrón: llaman a la víctima y le informan que un familiar está en problemas. Alegan accidentes, detenciones policiales o incluso secuestros, presionando para obtener una respuesta inmediata y reducir la capacidad de reacción de la víctima. Este tipo de manipulación emocional busca provocar decisiones impulsivas.

El peligro de los deepfakes.

Aunque estas estafas ya se han detectado anteriormente en el país, la facilidad con la que hoy se pueden crear ha incrementado la preocupación. La IA generativa permite falsificar no solo audios, sino también videos e imágenes. Este fenómeno, conocido como “deepfake”, hace que una persona aparente decir o hacer algo que en realidad nunca ocurrió.

Estafas en redes sociales.

En plataformas como X, también se han identificado videos falsos en los que aparecen figuras públicas promocionando inversiones fraudulentas. Estos contenidos imitan sus voces, gestos y escenarios reales, además de incluir enlaces a sitios clonados que simulan ser medios de comunicación reconocidos.

Cómo protegerse.

  • Evitar responder llamadas de números desconocidos

  • Confirmar la identidad del interlocutor con preguntas específicas

  • No compartir contraseñas ni datos sensibles por teléfono

  • Mantener la calma ante cualquier supuesto mensaje de emergencia

  • Verificar cualquier solicitud con otra fuente o contacto directo

  • Proteger la privacidad en redes sociales, evitando la exposición innecesaria de datos personales

Ante cualquier intento de estafa, es fundamental denunciar el hecho a las autoridades y alertar a otras personas para evitar que más ciudadanos sean víctimas de este tipo de engaños.

Exprésate Morona Santiago

Primer Medio de Comunicación Digital de la Provincia

Macas – Ecuador

Inmobiliaria Nativa