El equipo de riesgo existencial de IA de OpenAI: ¿Desmantelado?
El equipo de superalineación de OpenAI supuestamente se disuelve
Según un informe de Wired, el equipo de superalineación de OpenAI, encargado de abordar los riesgos existenciales de los sistemas de IA sobrehumanos, ha sido disuelto. Esta noticia llega poco después de que los fundadores del equipo, Ilya Sutskever y Jan Leike, abandonaran la empresa.
¿Qué es la superalineación?
El objetivo de la superalineación es garantizar que los sistemas de IA sobrehumanos del futuro se mantengan alineados con los valores y objetivos humanos. El equipo de superalineación de OpenAI se centró en desarrollar técnicas para evitar que las IA se vuelvan deshonestas o dañinas.
El trabajo del equipo de superalineación
El equipo de superalineación de OpenAI lanzó por primera vez en julio de 2023. Su trabajo incluía:
- Investigar los riesgos asociados con las tecnologías de IA más poderosas
- Desarrollar técnicas para controlar y dirigir las IA superinteligentes
- Abogar por la seguridad y la alineación en el desarrollo de la IA
Las razones de la disolución
El informe de Wired sugiere que el equipo de superalineación se disolvió debido a desacuerdos internos sobre los valores fundamentales. Jan Leike, en un hilo publicado en Twitter, expresó su preocupación por la falta de atención de OpenAI a la seguridad y la alineación.
El futuro de la superalineación en OpenAI
OpenAI ha declarado que el trabajo del equipo de superalineación se integrará en otros esfuerzos de investigación. John Schulman, cofundador de OpenAI, ahora dirigirá la investigación sobre los riesgos de las tecnologías de IA más poderosas.
Perspectivas de expertos
La disolución del equipo de superalineación de OpenAI es una señal preocupante.
Experto en IA
El informe de Wired ha generado preocupación entre los defensores de la seguridad de la IA. Algunos expertos creen que la disolución del equipo de superalineación podría debilitar los esfuerzos para abordar los riesgos existenciales de las IA sobrehumanas.
Conclusión
La disolución del equipo de superalineación de OpenAI es un acontecimiento significativo que plantea dudas sobre el compromiso de la empresa con la seguridad y la alineación de la IA. El futuro de la superalineación en OpenAI es incierto, pero es esencial que la empresa continúe dando prioridad a estos temas.
Fuente: https://es.gizmodo.com/openai-supuestamente-disuelve-su-equipo-de-riesgo-de-ia-1851484913
Artículos relacionados