Evite la estafa del vishing: voces clonadas roban identidades en WhatsApp
¡Cuidado con la nueva estafa de clonación de voces por IA! Los estafadores están utilizando tecnología de inteligencia artificial (IA) para clonar voces y engañar a las personas para que les envíen dinero u otros datos confidenciales.
Cómo funciona la estafa de clonación de voces por IA
Los estafadores utilizan un software de clonación de voces para crear una réplica casi perfecta de la voz de una persona. Luego, utilizan esta voz clonada para enviar mensajes de WhatsApp u otras plataformas de mensajería, haciéndose pasar por un familiar, amigo o conocido.
Los mensajes generalmente contienen una solicitud de dinero u otra información personal. Por ejemplo, el estafador puede pedirle que envíe dinero para una emergencia médica falsa o que comparta su número de seguro social o información bancaria.
¿Quién es vulnerable a esta estafa?
Cualquiera puede ser vulnerable a esta estafa, pero los ancianos y las personas con deterioro cognitivo son particularmente susceptibles. Los estafadores a menudo se dirigen a estas personas porque es más probable que confíen en alguien que suena como un familiar o amigo.
Cómo protegerse contra la estafa de clonación de voces por IA
Hay varias cosas que puede hacer para protegerse contra esta estafa:
- Desconfíe de las solicitudes de dinero o información personal por mensaje de texto. Si recibe un mensaje de alguien que dice ser un familiar o amigo, pero le pide dinero u otra información personal, no responda. Llame a la persona directamente para verificar si realmente es quien dice ser.
- No haga clic en enlaces en mensajes de texto de personas que no conoce. Si recibe un mensaje de texto de alguien que no conoce, no haga clic en ningún enlace del mensaje. Los enlaces pueden llevarlo a sitios web de phishing que están diseñados para robar su información personal.
- Utilice un software antivirus y antimalware. El software antivirus y antimalware puede ayudarlo a proteger su computadora y dispositivos móviles de malware que puede utilizarse para robar su información personal.
- Denuncie las estafas a las autoridades. Si cree que ha sido víctima de una estafa de clonación de voces por IA, denúncielo a las autoridades. También puede denunciar estafas a la Comisión Federal de Comercio (FTC) en ftc.gov/queja.
Advertencias para los estafadores
Esta nueva modalidad de estafa es muy peligrosa porque es difícil de detectar. Incluso las personas que son conscientes de la estafa pueden ser engañadas si el estafador utiliza una voz clonada que suena muy similar a la de una persona que conocen.
Si cree que alguien está tratando de estafarlo con una voz clonada, no dude en denunciarlo a las autoridades. Esta es una estafa grave y los estafadores deben rendir cuentas por sus delitos.
El número de estafas de clonación de voces por IA va en aumento, y es importante estar al tanto de esta nueva amenaza.
Comisión Federal de Comercio (FTC)
Información adicional
Para obtener más información sobre la estafa de clonación de voces por IA, visite los siguientes recursos:
Artículos relacionados