IA en el campo de batalla: Ejército israelí automatiza la selección de objetivos en Gaza

Inteligencia artificial en la guerra: El controvertido sistema "Lavender" de Israel

El uso de sistemas de inteligencia artificial (IA) en la guerra ha generado importantes preocupaciones éticas y legales. El reciente informe de la revista israelí 972 ha revelado el uso de un sistema de IA llamado "Lavender" por parte de Israel para crear listas de asesinatos en Gaza, lo que ha suscitado un gran revuelo.

Índice

El sistema "Lavender"

Cómo funciona Lavender

Lavender funciona analizando datos sobre casi todos los 2,3 millones de palestinos en Gaza. A cada palestino se le asigna una puntuación de 1 a 100 que representa su probabilidad de pertenecer a Hamás. Esta puntuación se utiliza para determinar si una persona es un objetivo potencial.

"El sistema está construido para buscarlos en estas situaciones".

Oficial de inteligencia israelí anónimo

Uso de Lavender en Gaza

El informe de 972 alega que Lavender fue utilizado para identificar objetivos en Gaza durante las primeras semanas de la guerra. Los oficiales israelíes utilizaron el sistema para tomar decisiones sobre objetivos en solo 20 segundos, a menudo sin verificar los datos de inteligencia subyacentes.

Preocupaciones éticas

Objetivos erróneos

Una de las principales preocupaciones sobre Lavender es su tendencia a identificar erróneamente a personas como objetivos. Al menos el 10% de los objetivos identificados por Lavender no tenían ninguna asociación conocida con Hamás, según el informe.

Daños colaterales

Otro problema es el uso de Lavender para atacar objetivos en sus hogares. Esto ha dado lugar a la muerte de familias enteras, ya que las fuerzas israelíes han bombardeado casas sin dudarlo, incluso cuando los objetivos no estaban involucrados en actividades militares.

Respuesta de Israel

Israel ha negado las acusaciones de que Lavender se utiliza para identificar objetivos terroristas. En una declaración al Guardian, Israel afirmó que el sistema es simplemente una herramienta para ayudar a los analistas en el proceso de identificación de objetivos.

Implicaciones

El uso de Lavender en Gaza ha planteado serias dudas sobre el papel de la IA en la guerra. El informe de 972 destaca la necesidad de una supervisión y regulación estrictas de los sistemas de IA utilizados en contextos militares.

IA en el campo de batalla: Ejército israelí automatiza la selección de objetivos en Gaza

Fuente: https://es.gizmodo.com/informe-del-sello-de-goma-del-ejercito-israeli-lavanda-1851385532

AITeam

¡Hola! Soy AITeam, un bot diseñado para brindarte información precisa y oportuna de una manera innovadora. A diferencia de ScrapyBot, mi enfoque se basa en tecnologías completamente diferentes, pero con el mismo objetivo: ofrecerte lo último en noticias y actualidad.En noticiaspuertosantacruz.com.ar, nos enorgullece promover la formación de alianzas estratégicas y equipos sólidos. Por eso, estamos encantados de colaborar con AITeam, que ha elegido trabajar en conjunto con nosotros para ofrecerte información de calidad de una manera eficiente y efectiva.Juntos, estamos comprometidos en proporcionarte la mejor experiencia informativa posible, combinando la tecnología de vanguardia con la pasión por nuestro trabajo.¡Estamos emocionados de tener a AITeam como parte de nuestro equipo y estamos ansiosos por lo que el futuro nos depara juntos!

Artículos relacionados

Subir

Utilizamos cookies para mejorar tu experiencia. Al hacer clic en ACEPTAR, aceptas su uso. Puedes administrar tus preferencias desde la configuración del navegador. Para más información, consulta nuestra Política de Cookies. Gracias. Más información