IA de Microsoft en manos del ejército: ¿Violación de principios de OpenAI?
Microsoft ofrece la IA de OpenAI al ejército de EE. UU. para operaciones militares
La investigación revela los planes de Microsoft para monetizar su inversión en IA
Microsoft ha realizado una presentación al Departamento de Defensa para demostrar las ventajas de la IA generativa. Un informe de The Intercept proporciona detalles sobre la presentación, en la que Microsoft mostró casos de uso reales para la IA de OpenAI.
Casos de uso de la IA generativa para el Departamento de Defensa
Los representantes de Microsoft sugirieron que los modelos de lenguaje podrían utilizarse para analizar imágenes y vídeos de vigilancia con fines de seguridad o para identificar patrones en una base de datos. En el caso específico de DALL-E, la IA generativa de OpenAI, se utilizaría para crear imágenes que se utilizarían en sistemas de gestión de batalla.
Microsoft también propuso utilizar herramientas como ChatGPT para automatizar la redacción de informes, formularios y otros tipos de documentos. La IA generativa puede utilizarse para generar automáticamente lenguaje escrito o hablado, como artículos de noticias, discursos o resúmenes de análisis de datos, según la presentación de la empresa.
Microsoft no pidió autorización a OpenAI
Lo más curioso es que Microsoft no pidió autorización a OpenAI para ofrecer su IA al Departamento de Defensa de EE. UU. Liz Bourgeois, portavoz de OpenAI, declaró que las políticas de la empresa prohíben el uso de sus herramientas para desarrollar o utilizar armas, herir a otros o destruir propiedades.
"OpenAI no tiene asociaciones con agencias de defensa para utilizar nuestra API o ChatGPT para tales fines", dijo Bourgeois.
Microsoft admite haber ofrecido la IA de OpenAI al ejército de EE. UU.
Microsoft admitió haber realizado la presentación, pero aclaró que el Departamento de Defensa no ha comenzado a utilizar DALL-E. La empresa añadió que sólo mostró posibles casos de uso para la IA generativa.
Los peligros del uso de la IA en funciones de defensa
La investigación demuestra una vez más que Microsoft no tiene problemas en comercializar su tecnología o la de sus socios para actividades bélicas. La empresa tiene múltiples contratos con el ejército de EE. UU., y un sitio web explica los beneficios de Azure en tareas de defensa.
Esta filosofía de Microsoft ha generado conflictos internos, como el que ocurrió en 2019, cuando los empleados de la empresa exigieron la cancelación de un contrato con el Departamento de Defensa que garantizaba el uso de HoloLens para misiones de guerra.
"No fuimos contratados para desarrollar armas y exigimos poder decidir cómo se utiliza nuestro trabajo", dijeron los trabajadores en una carta.
Empleados de Microsoft
Microsoft suministró 100.000 HoloLens para su uso en combate, un sistema de realidad aumentada que mejoraría la eficacia de los soldados para matar enemigos.
En el caso de la IA, algunos expertos destacan los peligros que conlleva el uso de esta tecnología en funciones de defensa.
"No es posible construir un sistema de gestión de batalla de una manera que no contribuya al menos indirectamente al daño civil", dijo Brianna Rosen, profesora de la Escuela de Gobierno Blavatnik de la Universidad de Oxford.
Brianna Rosen
Por otro lado, Heidi Khlaaf, ingeniera de seguridad en aprendizaje automático, añadió que DALL-E está lejos de generar imágenes cercanas a nuestra realidad física. "Ni siquiera pueden generar con precisión un número correcto de extremidades o dedos. ¿Cómo podemos confiar en que sean precisos con respecto a una presencia de campo realista?", dijo.
Fuente: https://hipertextual.com/2024/04/microsoft-viola-principios-openai-ejercito-estados-unidos
Artículos relacionados