Clonación vocal por IA: Alerta del INCIBE sobre la estafa que simula voces familiares

EmailFacebookTwitterLinkedinPinterest
08/07/2024 - 14:30
Estafas de inteligencia artificial con voces familiares

Lectura fácil

El Instituto Nacional de Ciberseguridad (INCIBE) ha emitido una alerta respecto a un método innovador de fraude que está ganando popularidad entre los estafadores. En este nuevo tipo de estafa, los delincuentes utilizan tecnología de inteligencia artificial (IA) para clonar la voz de familiares de las víctimas.

El INCIBE alerta sobre una nueva estafa de IA con la simulación de voces familiares

El Instituto Nacional de Ciberseguridad (INCIBE) ha alertado sobre una nueva modalidad de fraude que utiliza inteligencia artificial (IA) para engañar a las víctimas mediante llamadas telefónicas. En este tipo de estafa, los estafadores clonan la voz de familiares de la víctima para solicitar acciones como el envío de mensajes a números desconocidos o la revelación de datos personales o bancarios.

El INCIBE informa que recientemente han recibido informes de personas que han experimentado situaciones donde reciben una llamada de un número desconocido, y al contestar, escuchan la voz de un ser querido, como su esposo, pidiéndoles realizar ciertas acciones. Sin embargo, al verificar con el familiar directamente, se confirma que no realizaron dicha llamada desde otro número.

Según los testimonios recogidos por el INCIBE, los afectados indican que previamente habían recibido llamadas sospechosas donde no había nadie al otro lado o se les solicitaban datos personales. Aunque no encontraron ningún video o audio en línea que pudiera haber sido utilizado para clonar la voz, los estafadores lograron imitarla utilizando fragmentos cortos de audio, como mensajes de voz anteriores.

Rubén Maestre, experto en ciencia de datos e inteligencia artificial, explica que con apenas dos o tres mensajes de audio de aproximadamente 20 segundos, las aplicaciones de clonación de voz con IA pueden replicar con precisión el tono y el timbre de cualquier voz humana.

Las herramientas más avanzadas incluso pueden modificar el tono para simular diferentes emociones como angustia, felicidad o enojo, aumentando así la efectividad de la estafa.

Maestre advierte sobre la importancia de proteger nuestros datos personales en línea, ya que los estafadores pueden obtener información a través de diversas fuentes, incluidos contactos de la lista telefónica, para llevar a cabo este tipo de fraudes.

Esta situación de estafa subraya la necesidad de estar alerta y verificar siempre la identidad de las personas que solicitan información o acciones a través de llamadas telefónicas, especialmente en casos donde la solicitud pueda parecer inusual o urgente.

Recomendaciones cruciales para evitar y manejar estafas de clonación vocal

El Instituto Nacional de Ciberseguridad (INCIBE) destaca la importancia de verificar la autenticidad de las llamadas con los familiares cuya voz se reconoce, y de abstenerse de proporcionar información personal o seguir instrucciones de los estafadores.

Rubén Maestre, consultado por Newtral.es, sugiere establecer una palabra clave con los familiares para confirmar la legitimidad de la comunicación y evitar ser víctima de este tipo de fraudes.

Si se sospecha haber caído en una estafa de clonación vocal, el INCIBE aconseja tomar medidas inmediatas como alertar a otros contactos sobre el incidente, bloquear el número fraudulento, contactar a las autoridades locales y practicar el "egosurfing" para verificar si los datos personales han sido comprometidos en internet. Estas acciones son fundamentales para mitigar los efectos de la estafa y protegerse contra posibles fraudes futuros.

Añadir nuevo comentario