Alerta: video falso de Messi promociona estafa con deepfakes
¡Atención! Video falso de Messi promociona una estafa con "deepfakes"
Verdades y mentiras en el mundo de las "fake news"
En la era de la información digital, discernir entre la verdad y la falsedad se ha convertido en un desafío. Las "deepfakes", videos manipulados mediante inteligencia artificial, han llevado esta dificultad a nuevas cotas al hacer que las mentiras parezcan convincentes.
Un reciente ejemplo de este fenómeno es un video falso que circula por redes sociales, en el que Lionel Messi supuestamente promociona una aplicación llamada "Wildcat Dive" como una fuente de ingresos lucrativa. Este video ha sido cuidadosamente editado, alterando tanto la voz como los movimientos de los labios de Messi, para engañar a los espectadores y hacerles creer que están presenciando una promoción genuina.
El caso de "Wildcat Dive": una estafa disfrazada
La aplicación "Wildcat Dive", cuya supuesta promoción por Messi ha levantado sospechas, solo está disponible en la Apple Store. Sin embargo, según expertos en ciberseguridad de ESET, las posibilidades de obtener ganancias de esta aplicación son prácticamente nulas, y las de recuperar cualquier inversión realizada son extremadamente bajas.
Las reseñas de la aplicación en la tienda de Apple corroboran estas afirmaciones, con usuarios denunciando la imposibilidad de retirar dinero y calificando la aplicación como fraudulenta. Aunque la aplicación actualmente no funciona una vez descargada, las reseñas mencionan supuestas funcionalidades de apuestas que permitían a los usuarios invertir y obtener ganancias.
El deepfake de Messi: una obra magistral de la manipulación
El video falso de Messi promocionando "Wildcat Dive" no es el primer deepfake que se utiliza con fines maliciosos. Un programa llamado HeyGen viralizó recientemente un video en el que Messi "hablaba" en inglés, una lengua que, como se sabe, no domina. Este video también fue creado mediante inteligencia artificial, sincronizando perfectamente la voz de Messi con los labios de un actor que hablaba inglés.
Esta manipulación ha creado una falsa impresión entre los usuarios de redes sociales, que han llegado a creer que Messi ha aprendido inglés o que el video era real. Sin embargo, es importante recordar que los deepfakes son creaciones artificiales que pueden distorsionar la verdad y dañar la reputación de las personas.
El mundo de las "deepfakes" es una espada de doble filo. Si bien puede utilizarse con fines inocentes, como el entretenimiento, también tiene un gran potencial para el engaño y la manipulación. Experto en ciberseguridad
Consejos para detectar deepfakes
Ante la proliferación de deepfakes, es esencial estar alerta y desarrollar herramientas para detectar estas manipulaciones. A continuación, se ofrecen algunos consejos para identificar deepfakes:
- Comprobación de movimientos labiales: En los deepfakes, los movimientos de los labios suelen estar ligeramente fuera de sincronía con las palabras pronunciadas, ya que la inteligencia artificial tiene dificultades para sincronizar perfectamente el audio y el vídeo.
- Análisis de parpadeos: Los deepfakes a menudo muestran patrones de parpadeo inusuales, ya que la inteligencia artificial no puede recrear completamente los movimientos naturales de los ojos.
- Examen de expresiones faciales: Las expresiones faciales en los deepfakes pueden parecer poco naturales o exageradas, ya que la inteligencia artificial no puede capturar completamente la gama completa de emociones humanas.
- Investigación de la fuente: Es importante verificar la fuente del vídeo y buscar información sobre la autenticidad del mismo en fuentes creíbles.
Conclusión
El video falso de Messi promocionando "Wildcat Dive" es un claro ejemplo de cómo los deepfakes pueden utilizarse con fines engañosos. Es crucial estar atentos a estas manipulaciones y desarrollar herramientas para detectarlas. Al comprender cómo funcionan los deepfakes y al tomar medidas para verific la autenticidad de los vídeos, podemos combatir la propagación de información falsa y protegernos de estafas.
Artículos relacionados