Alerta de seguridad: Mensaje de voz infiltrado en LastPass a través de WhatsApp
Los deepfakes de voz: una nueva amenaza para la seguridad
En los últimos tiempos, hemos sido testigos de un aumento en el uso de tecnologías que permiten generar audios y vídeos que suplantan la identidad de otras personas. Si bien estas tecnologías se han utilizado para crear nuevos y polémicos éxitos musicales, también se han empleado con fines maliciosos, como fraudes y estafas.
LastPass: un caso de suplantación de identidad mediante deepfakes de voz
"Alguien había usado tecnología de clonado de voces para suplantar la voz del CEO de la empresa y luego intentar engañar a uno de sus empleados".
LastPass
En una publicación en el blog oficial de LastPass, los responsables de la empresa revelaron cómo alguien había utilizado tecnología de clonación de voces para suplantar la voz del CEO de la empresa, Karim Toubba, e intentar engañar a uno de sus empleados. Afortunadamente, el empleado no cayó en la trampa, ya que detectó indicios sospechosos en los mensajes.
Los indicios que delataron la estafa
Según LastPass, el empleado notó que el CEO se comunicaba directamente con él, algo inusual, y que la voz tenía un tono de urgencia forzada. Estos indicios hicieron sospechar al empleado, quien ignoró los mensajes e informó del incidente al equipo de seguridad interna.
Los deepfakes de voz: una amenaza creciente
Los expertos de LastPass advirtieron que los deepfakes de voz son cada vez más populares. Recordaron un caso reciente en el que un empleado de una empresa de Hong Kong pagó 25 millones de dólares a un estafador que suplantó la identidad del CEO y otros compañeros de trabajo.
Esta entrada ha sido visitada por 1 lectores.
El peligro para empresas como LastPass
LastPass ha sido objetivo de ciberataques en el pasado. En 2022, un ciberdelincuente se infiltró en la empresa durante meses, obteniendo datos de usuarios. Esta empresa es un objetivo atractivo para los hackers, ya que almacena las contraseñas de millones de usuarios para acceder a todo tipo de servicios.
Cómo protegerse de los deepfakes de voz
Para protegerse de los deepfakes de voz, es importante estar atento a los siguientes indicios:
- Comunicaciones inesperadas o inusuales de contactos conocidos.
- Tono de urgencia o presión.
- Solicitudes de información personal o financiera.
Si sospecha que está siendo víctima de un deepfake de voz, no responda a los mensajes y reporte el incidente a las autoridades correspondientes.
¡Esperamos que haya sido de utilidad este artículo de la categoría Inteligencia Artificial. Por cualquier consulta sobre los artículos presentados en esta Web por favor contactanos a redaccion@noticiaspuertosantacruz.com.ar. Recuerda que somos un medio independiente que está 100% automatizado con IA (Inteligencia Artificial) por lo que siempre te recomendamos que visites las fuentes originales de cada artículo presentado en esta web. Todavía no te vayas, ¡tenemos mucho más contenido interesante para vos! Te invitamos a explorar otros artículos similares a Alerta de seguridad: Mensaje de voz infiltrado en LastPass a través de WhatsApp en nuestra amplia colección sobre Inteligencia Artificial.
Artículos relacionados