Alerta de seguridad: Mensaje de voz infiltrado en LastPass a través de WhatsApp
Los deepfakes de voz: una nueva amenaza para la seguridad
En los últimos tiempos, hemos sido testigos de un aumento en el uso de tecnologías que permiten generar audios y vídeos que suplantan la identidad de otras personas. Si bien estas tecnologías se han utilizado para crear nuevos y polémicos éxitos musicales, también se han empleado con fines maliciosos, como fraudes y estafas.
LastPass: un caso de suplantación de identidad mediante deepfakes de voz
"Alguien había usado tecnología de clonado de voces para suplantar la voz del CEO de la empresa y luego intentar engañar a uno de sus empleados".
LastPass
En una publicación en el blog oficial de LastPass, los responsables de la empresa revelaron cómo alguien había utilizado tecnología de clonación de voces para suplantar la voz del CEO de la empresa, Karim Toubba, e intentar engañar a uno de sus empleados. Afortunadamente, el empleado no cayó en la trampa, ya que detectó indicios sospechosos en los mensajes.
Los indicios que delataron la estafa
Según LastPass, el empleado notó que el CEO se comunicaba directamente con él, algo inusual, y que la voz tenía un tono de urgencia forzada. Estos indicios hicieron sospechar al empleado, quien ignoró los mensajes e informó del incidente al equipo de seguridad interna.
Los deepfakes de voz: una amenaza creciente
Los expertos de LastPass advirtieron que los deepfakes de voz son cada vez más populares. Recordaron un caso reciente en el que un empleado de una empresa de Hong Kong pagó 25 millones de dólares a un estafador que suplantó la identidad del CEO y otros compañeros de trabajo.
El peligro para empresas como LastPass
LastPass ha sido objetivo de ciberataques en el pasado. En 2022, un ciberdelincuente se infiltró en la empresa durante meses, obteniendo datos de usuarios. Esta empresa es un objetivo atractivo para los hackers, ya que almacena las contraseñas de millones de usuarios para acceder a todo tipo de servicios.
Cómo protegerse de los deepfakes de voz
Para protegerse de los deepfakes de voz, es importante estar atento a los siguientes indicios:
- Comunicaciones inesperadas o inusuales de contactos conocidos.
- Tono de urgencia o presión.
- Solicitudes de información personal o financiera.
Si sospecha que está siendo víctima de un deepfake de voz, no responda a los mensajes y reporte el incidente a las autoridades correspondientes.
Artículos relacionados