Inteligencia Artificial: EE. UU. y Reino Unido se alían para evitar u n futuro desastroso
Estados Unidos y Reino Unido se unen para evaluar la seguridad de la IA
Un memorando de entendimiento para garantizar el desarrollo seguro de la inteligencia artificial
Estados Unidos y Reino Unido han firmado un memorando de entendimiento (MOU) para colaborar en la evaluación de la seguridad de los modelos de inteligencia artificial (IA). Este acuerdo tiene como objetivo abordar los riesgos potenciales asociados con los modelos de IA más avanzados y garantizar su uso seguro y responsable.
Evaluaciones conjuntas para identificar y mitigar riesgos
El MOU establece que ambos países trabajarán juntos para desarrollar y realizar pruebas de seguridad conjuntas sobre modelos de IA accesibles al público. Estas pruebas ayudarán a identificar y evaluar los riesgos asociados con estos modelos, lo que permitirá a los gobiernos abordar estos riesgos de manera efectiva.
Colaboración para acelerar el desarrollo de orientaciones
La colaboración entre Estados Unidos y Reino Unido tiene como objetivo acelerar el trabajo de sus respectivos institutos en materia de seguridad de la IA. El MOU permitirá a ambos países compartir conocimientos y mejores prácticas, lo que conducirá a evaluaciones más sólidas y orientaciones más rigurosas sobre el uso seguro de la IA.
Compromiso global para prevenir escenarios catastróficos
El MOU es parte de los esfuerzos más amplios de Estados Unidos y Reino Unido para prevenir escenarios catastróficos relacionados con la IA. Ambos países reconocen que garantizar el desarrollo seguro de la IA es una cuestión global compartida y están comprometidos a trabajar con otros países para abordar los riesgos potenciales.
Planes para compartir información y desarrollar acciones conjuntas
El acuerdo establece que Estados Unidos y Reino Unido compartirán información sobre las capacidades y riesgos asociados con los modelos de IA. Además, ambos gobiernos trabajarán juntos para desarrollar acciones conjuntas con otros países para fortalecer la seguridad de la IA a nivel mundial.
Críticas de las grandes tecnológicas a la falta de claridad
Aunque las grandes empresas tecnológicas han acordado someterse a auditorías de sus modelos de IA, han criticado la falta de claridad en los procesos de prueba y los plazos para los informes. Algunas empresas han expresado su preocupación de que los hallazgos de las pruebas puedan no ser lo suficientemente claros o oportunos para guiar sus decisiones de desarrollo.
Reacción de la industria a las pruebas conjuntas
Ian Hogarth, jefe del Instituto de Seguridad de la IA del Reino Unido, ha declarado que las empresas tecnológicas han acordado someterse a las pruebas pertinentes. Sin embargo, enfatizó que los hallazgos se compartirán con los desarrolladores según corresponda y que se espera que tomen medidas apropiadas antes del lanzamiento de sus modelos.
El papel de la Unión Europea en la regulación de la IA
La asociación entre Estados Unidos y Reino Unido se produce poco después de la aprobación de la Ley de Inteligencia Artificial en la Unión Europea. Esta ley establece un marco legal para garantizar que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos. La UE ha definido cuatro niveles de riesgo y prohíbe los sistemas de IA considerados una amenaza para la seguridad.
Artículos relacionados