IA en el campo de batalla: Ejército israelí automatiza la selección de objetivos en Gaza
Inteligencia artificial en la guerra: El controvertido sistema "Lavender" de Israel
El uso de sistemas de inteligencia artificial (IA) en la guerra ha generado importantes preocupaciones éticas y legales. El reciente informe de la revista israelí 972 ha revelado el uso de un sistema de IA llamado "Lavender" por parte de Israel para crear listas de asesinatos en Gaza, lo que ha suscitado un gran revuelo.
El sistema "Lavender"
Cómo funciona Lavender
Lavender funciona analizando datos sobre casi todos los 2,3 millones de palestinos en Gaza. A cada palestino se le asigna una puntuación de 1 a 100 que representa su probabilidad de pertenecer a Hamás. Esta puntuación se utiliza para determinar si una persona es un objetivo potencial.
"El sistema está construido para buscarlos en estas situaciones".
Oficial de inteligencia israelí anónimo
Uso de Lavender en Gaza
El informe de 972 alega que Lavender fue utilizado para identificar objetivos en Gaza durante las primeras semanas de la guerra. Los oficiales israelíes utilizaron el sistema para tomar decisiones sobre objetivos en solo 20 segundos, a menudo sin verificar los datos de inteligencia subyacentes.
Preocupaciones éticas
Objetivos erróneos
Una de las principales preocupaciones sobre Lavender es su tendencia a identificar erróneamente a personas como objetivos. Al menos el 10% de los objetivos identificados por Lavender no tenían ninguna asociación conocida con Hamás, según el informe.
Daños colaterales
Otro problema es el uso de Lavender para atacar objetivos en sus hogares. Esto ha dado lugar a la muerte de familias enteras, ya que las fuerzas israelíes han bombardeado casas sin dudarlo, incluso cuando los objetivos no estaban involucrados en actividades militares.
Respuesta de Israel
Israel ha negado las acusaciones de que Lavender se utiliza para identificar objetivos terroristas. En una declaración al Guardian, Israel afirmó que el sistema es simplemente una herramienta para ayudar a los analistas en el proceso de identificación de objetivos.
Implicaciones
El uso de Lavender en Gaza ha planteado serias dudas sobre el papel de la IA en la guerra. El informe de 972 destaca la necesidad de una supervisión y regulación estrictas de los sistemas de IA utilizados en contextos militares.
Fuente: https://es.gizmodo.com/informe-del-sello-de-goma-del-ejercito-israeli-lavanda-1851385532
Artículos relacionados